Chain-of-thought — Få LLM'er til at tænke højt og ræsonnere bedre
Chain-of-thought beder modellen om at vise mellemtrin i ræsonnementet. Reducerer fejl markant på opgaver der kræver logik, matematik eller multi-step analyse.
Chain-of-thought (CoT) er en prompting-teknik der instruerer en LLM til at generere mellemtrin i sit ræsonnement frem for at springe direkte til et svar. I stedet for “Hvad er svaret på X?” spørger man “Gennemgå trinene i din analyse af X, og kom derefter til en konklusion.”
Teknikken opstod fra et Google Brain-paper fra 2022 der viste at store modeller systematisk klarede sig bedre på matematiske og logiske opgaver når de blev bedt om at vise ræsonnementet. Det intuitive forklaringsprincip: modellen “hører” sit eget mellemregning og kan korrigere fejl undervejs frem for at forpligte sig til et forkert svar fra starten.
Zero-shot og few-shot CoT
Zero-shot CoT: Tilføj blot “Tænk igennem det trin for trin” til slutningen af din prompt. Overraskende effektivt og kræver ingen eksempler.
Few-shot CoT: Giv eksempler på korrekt ræsonnement med synlige mellemtrin — modellen lærer formatet og anvender det på nye spørgsmål. Mere konsistent end zero-shot men kræver arbejde med eksempelkonstruktion.
Hvornår CoT hjælper
CoT forbedrer output markant på:
- Multi-step analyse: “Analyser denne sides tekniske SEO-problemer og prioriter dem efter potentiel impact”
- Logisk ræsonnement: Vurdering af kausalitet, årsag-virkning, betingede scenarier
- Strukturerede vurderinger: Content gaps, konkurrentanalyse, link-profile-evaluering
CoT hjælper ikke (eller hjælper minimalt) på:
- Faktuelle spørgsmål med entydige svar
- Kreative opgaver uden logisk struktur
- Meget korte, simple outputs
Udvidet tænkning
Nyere modeller (Claude 3.7 Sonnet, o1/o3) understøtter “extended thinking” — modellen bruger intern compute til ræsonnement der ikke er synligt i outputtet men alligevel forbedrer svarqualiteten. Det er i essensen CoT implementeret på model-niveau frem for prompt-niveau.
Praktisk konsekvens: for komplekse SEO-analyser er det værd at eksplicit bede om ræsonnement — uanset om du bruger en model med eller uden extended thinking — fordi det tvinger mere struktureret behandling af opgaven.
Andre artikler i samme emne
- Few-shot prompting — Lær modellen via eksempler i prompten
- Prompt chaining — Kæde af prompts til komplekse AI-workflows
- Prompt engineering til SEO — Teknikker der faktisk virker
- Structured output — Få LLM'er til at returnere JSON og andre formater
- System prompt — Instruktioner der definerer modellens adfærd
- Zero-shot prompting — Instruktion uden eksempler
Placering i ordbogen
- Few-shot prompting — Lær modellen via eksempler i prompten
- Prompt chaining — Kæde af prompts til komplekse AI-workflows
- Prompt engineering til SEO — Teknikker der faktisk virker
- Structured output — Få LLM'er til at returnere JSON og andre formater
- System prompt — Instruktioner der definerer modellens adfærd
- Zero-shot prompting — Instruktion uden eksempler