Artikel

Chain-of-thought — Få LLM'er til at tænke højt og ræsonnere bedre

Chain-of-thought beder modellen om at vise mellemtrin i ræsonnementet. Reducerer fejl markant på opgaver der kræver logik, matematik eller multi-step analyse.

Chain-of-thought (CoT) er en prompting-teknik der instruerer en LLM til at generere mellemtrin i sit ræsonnement frem for at springe direkte til et svar. I stedet for “Hvad er svaret på X?” spørger man “Gennemgå trinene i din analyse af X, og kom derefter til en konklusion.”

Teknikken opstod fra et Google Brain-paper fra 2022 der viste at store modeller systematisk klarede sig bedre på matematiske og logiske opgaver når de blev bedt om at vise ræsonnementet. Det intuitive forklaringsprincip: modellen “hører” sit eget mellemregning og kan korrigere fejl undervejs frem for at forpligte sig til et forkert svar fra starten.

Zero-shot og few-shot CoT

Zero-shot CoT

Tilføj blot “Tænk igennem det trin for trin” til slutningen af din prompt. Det er overraskende effektivt og kræver ingen eksempler.

Few-shot CoT

Giv eksempler på korrekt ræsonnement med synlige mellemtrin — modellen lærer formatet og anvender det på nye spørgsmål. Mere konsistent end zero-shot, men kræver arbejde med eksempelkonstruktion.

Hvornår CoT hjælper

CoT forbedrer output markant på multi-step analyse — eksempelvis “Analyser denne sides tekniske SEO-problemer og prioriter dem efter potentiel impact” — samt på logisk ræsonnement som vurdering af kausalitet, årsag-virkning og betingede scenarier. Strukturerede vurderinger som content gaps, konkurrentanalyse og link-profile-evaluering drager også stor fordel af teknikken.

CoT hjælper derimod ikke nævneværdigt på faktuelle spørgsmål med entydige svar, kreative opgaver uden logisk struktur eller meget korte og simple outputs.

Udvidet tænkning

Nyere modeller (Claude 3.7 Sonnet, o1/o3) understøtter “extended thinking” — modellen bruger intern compute til ræsonnement der ikke er synligt i outputtet men alligevel forbedrer svarqualiteten. Det er i essensen CoT implementeret på model-niveau frem for prompt-niveau.

Praktisk konsekvens: for komplekse SEO-analyser er det værd at eksplicit bede om ræsonnement — uanset om du bruger en model med eller uden extended thinking — fordi det tvinger mere struktureret behandling af opgaven. → Denne artikel er en del af Prompt engineering — Sådan får du mere ud af AI-modeller.

Andre artikler i samme emne

Ofte stillede spørgsmål

Hvad er chain-of-thought prompting?
Chain-of-thought (CoT) er en prompt-teknik der beder en LLM om at vise mellemtrin i sit ræsonnement frem for at springe direkte til en konklusion. I stedet for at spørge 'Hvad er svaret på X?' beder du modellen om at gennemgå ræsonnementet trin for trin. Det reducerer fejlraten markant på komplekse opgaver som matematik, logisk ræsonnement og multi-step analyse.
Hvornår hjælper chain-of-thought og hvornår gør det ikke?
Chain-of-thought hjælper på opgaver med naturlige ræsonneringstrin: multi-step analyse, logisk vurdering, kausalitetsforhold og prioritering baseret på flere kriterier. Det hjælper derimod ikke nævneværdigt på faktuelle spørgsmål med entydige svar, enkle klassifikationer eller meget korte outputs — her er overhead'en ikke pengene værd.
Hvad er forskellen på zero-shot og few-shot chain-of-thought?
Zero-shot CoT tilføjer blot en sætning som 'Tænk igennem det trin for trin' til slutningen af prompten — ingen eksempler nødvendigt. Few-shot CoT giver konkrete eksempler på ræsonnement med synlige mellemtrin, så modellen lærer formatet. Few-shot er mere konsistent men kræver arbejde med at konstruere gode eksempler. Zero-shot er hurtigere at implementere og virker overraskende godt på de fleste opgaver.
Hvad er extended thinking, og er det det samme som chain-of-thought?
Extended thinking er en funktion i nyere modeller (Claude 3.7 Sonnet, o1/o3) hvor modellen bruger intern compute til ræsonnement der ikke er synligt i outputtet. Det er CoT implementeret på model-niveau frem for prompt-niveau — du behøver ikke bede om det eksplicit, modellen gør det automatisk. For komplekse analyseopgaver kan det kombineres med eksplicit CoT-prompting for yderligere effekt.
Hvad er tree-of-thought og hvad adskiller det fra chain-of-thought?
Tree-of-thought (ToT) er en avanceret prompting-teknik der udvider CoT: i stedet for én lineær ræsonnerings-kæde udforsker modellen multiple tankeretninger parallelt og evaluerer dem mod hinanden, inden den vælger den mest lovende vej. Det er bedre til opgaver med mange mulige tilgange — content-strategi med mange valgmuligheder, tekniske SEO-problemer med modsatrettede løsninger. Det er sværere at implementere og bruger markant flere tokens end standard CoT.

Placering i ordbogen