Artikel

Chain-of-thought — Få LLM'er til at tænke højt og ræsonnere bedre

Chain-of-thought beder modellen om at vise mellemtrin i ræsonnementet. Reducerer fejl markant på opgaver der kræver logik, matematik eller multi-step analyse.

Chain-of-thought (CoT) er en prompting-teknik der instruerer en LLM til at generere mellemtrin i sit ræsonnement frem for at springe direkte til et svar. I stedet for “Hvad er svaret på X?” spørger man “Gennemgå trinene i din analyse af X, og kom derefter til en konklusion.”

Teknikken opstod fra et Google Brain-paper fra 2022 der viste at store modeller systematisk klarede sig bedre på matematiske og logiske opgaver når de blev bedt om at vise ræsonnementet. Det intuitive forklaringsprincip: modellen “hører” sit eget mellemregning og kan korrigere fejl undervejs frem for at forpligte sig til et forkert svar fra starten.

Zero-shot og few-shot CoT

Zero-shot CoT: Tilføj blot “Tænk igennem det trin for trin” til slutningen af din prompt. Overraskende effektivt og kræver ingen eksempler.

Few-shot CoT: Giv eksempler på korrekt ræsonnement med synlige mellemtrin — modellen lærer formatet og anvender det på nye spørgsmål. Mere konsistent end zero-shot men kræver arbejde med eksempelkonstruktion.

Hvornår CoT hjælper

CoT forbedrer output markant på:

  • Multi-step analyse: “Analyser denne sides tekniske SEO-problemer og prioriter dem efter potentiel impact”
  • Logisk ræsonnement: Vurdering af kausalitet, årsag-virkning, betingede scenarier
  • Strukturerede vurderinger: Content gaps, konkurrentanalyse, link-profile-evaluering

CoT hjælper ikke (eller hjælper minimalt) på:

  • Faktuelle spørgsmål med entydige svar
  • Kreative opgaver uden logisk struktur
  • Meget korte, simple outputs

Udvidet tænkning

Nyere modeller (Claude 3.7 Sonnet, o1/o3) understøtter “extended thinking” — modellen bruger intern compute til ræsonnement der ikke er synligt i outputtet men alligevel forbedrer svarqualiteten. Det er i essensen CoT implementeret på model-niveau frem for prompt-niveau.

Praktisk konsekvens: for komplekse SEO-analyser er det værd at eksplicit bede om ræsonnement — uanset om du bruger en model med eller uden extended thinking — fordi det tvinger mere struktureret behandling af opgaven.

Andre artikler i samme emne

Placering i ordbogen