Prompt chaining til SEO: Sådan bygger du AI-workflows der faktisk holder
En enkelt prompt er et svar. En kæde af prompts er et workflow. Forskellen er den samme som forskellen på at stille ét spørgsmål og at bygge en proces.
De fleste SEO-professionelle der bruger AI er stadig i én-prompt-fasen. De åbner Claude eller ChatGPT, skriver en prompt og får et svar. Det er nyttigt. Men det er ikke skalerbart, det er ikke testbart, og det håndterer ikke komplekse opgaver der har naturlige trin.
Prompt chaining løser det. Her er hvad det er, og hvordan det virker i praksis.
Problemet med den lange prompt
Jeg har testet dette mange gange. Den intuitive tilgang er at lægge alt ind i én lang prompt: “Tag denne liste af 200 søgeord, kategoriser dem efter søgeintention, identificer content gaps mod vores eksisterende sider, prioriter de 10 vigtigste og skriv content briefs til dem.”
Problemet er ikke at Claude ikke forstår prompten. Problemet er at outputkvaliteten falder dramatisk når modellen jonglerer for mange opgaver. Kategoriseringen er sløset fordi modellen allerede er i gang med at tænke på gap-analysen. Content briefene er generiske fordi konteksten fra de første trin er diffus.
Løsningen er at opdele opgaven i sekventielle trin, hvor output fra hvert trin er input til næste.
Strukturen i en prompt chain
En prompt chain er en sekvens af API-kald. Trin 1 returnerer noget. Det noget sendes som kontekst til trin 2. Trin 2 returnerer noget. Det sendes til trin 3.
Hvert trin har:
- Ét klart formål
- Et defineret input-format
- Et defineret output-format
- En valideringstjek inden næste trin startes
For det første definerer du hvad hvert trin skal producere. For det andet skriver du systemp-prompten for hvert trin specifikt til den opgave. For det tredje bygger du et valideringstrin der kontrollerer om output er acceptabelt inden kæden fortsætter.
Et konkret SEO-eksempel
Her er en fire-trins chain til keyword-analyse:
Trin 1 — Søgeintentions-klassifikation
Input: rå liste med 200 søgeord fra Ahrefs-export.
System: Du er en SEO-analytiker. Returner kun JSON.
Prompt: Klassificer hvert søgeord som informational, commercial, transactional eller navigational.
Format: [{"keyword": "...", "intention": "..."}]
Hvert søgeord klassificeres. Output er et JSON-array.
Trin 2 — Prioritering
Input: JSON-array fra trin 1 + søgevolumen-data.
System: Du er en B2B SEO-strateg. Returner kun JSON.
Prompt: Identificer de 20 søgeord med bedst kombination af søgevolumen og commercial/transactional intent.
Format: [{"keyword": "...", "volumen": ..., "rationale": "..."}]
Trin 2 modtager klassificerede søgeord og volumen-data og returnerer en prioriteret liste.
Trin 3 — Gap-analyse
Input: prioriteret liste fra trin 2 + liste over eksisterende sider.
System: Du er en SEO content-strateg.
Prompt: Identificer hvilke af de 20 søgeord der ikke er dækket af en dedikeret side.
En side er "dækket" kun hvis dens primære søgeord matcher intentionelt.
Trin 4 — Content briefs
Input: gap-liste fra trin 3.
System: Du er en erfaren SEO-tekstforfatter.
Prompt: Skriv et content brief på 300 ord for hvert gap-søgeord.
Inkluder: formål, primær søgeintention, nøglesektioner, interne link-muligheder.
Fejl propagerer — valider mellemtrin
Den primære risiko er at en fejl i trin 1 forplanter sig til trin 4. Hvis klassifikationen i trin 1 er upræcis, er prioriteringen i trin 2 fejlagtig, gap-analysen i trin 3 er bygget på fejlagtig prioritering, og content briefene i trin 4 adresserer de forkerte søgeord.
Løsningen er eksplicit validering. Efter hvert kritisk trin: kig på output, tjek et tilfældigt sample, vurder om kvaliteten er acceptabel inden du fortsætter.
For automatiserede pipelines bygger du valideringstjek ind i koden: hvis output ikke indeholder de forventede felter eller er under en vis kvalitetstærskel, stop og log fejlen frem for at sende dårligt output videre.
Modelvalg per trin
Klassifikation er en simpel opgave. Det kræver ikke Claude Sonnet. Claude Haiku håndterer det til en brøkdel af prisen og markant højere hastighed.
Strategisk prioritering og content briefs kræver nuanceret forståelse. Her er Sonnet det rigtige valg.
For store workflows: brug Haiku til trin 1 og 2, Sonnet til trin 3 og 4. Det reducerer API-omkostningen med 70-80% uden at gå på kompromis med output-kvaliteten på de kritiske trin.
Fra chain til pipeline
En prompt chain i et Python-script er et godt udgangspunkt. Næste trin er at integrere den i et workflow-tool som n8n der håndterer scheduling, fejlhåndtering og notifikationer.
En fuldt automatiseret pipeline tager søgevolumen-data fra Ahrefs API, sender det gennem en tre-trins prompt chain, og returnerer prioriterede content briefs til en Google Sheet — uden menneskelig indsats per kørsel.
Det er forskellen på AI som assistent og AI som infrastruktur.
Relaterede artikler: Prompt chaining · Agentic SEO · Claude API · n8n og LLM