Prompt chaining — Kæde af prompts til komplekse AI-workflows
Prompt chaining opdeler komplekse opgaver i sekventielle trin — output fra trin 1 er input til trin 2. Det er fundamentet for agentic AI-workflows.
Prompt chaining er teknikken at opdele en kompleks opgave i en sekvens af sammenkædede prompts, hvor output fra hvert trin bliver input til næste. Det er en af de mest effektive teknikker til at bygge pålidelige, testbare AI-workflows — og fundamentet for de fleste agentic SEO-pipelines.
Problemet prompt chaining løser
En enkelt, kompleks prompt har to grundlæggende begrænsninger:
For det første context window-udfordringen. En prompt der beder om at crawle 100 URLs, analysere indholdet, identificere gaps og skrive anbefalinger — alt i ét kald — vil enten overskride context window eller producere diffust output fordi modellen skal jonglere for mange opgaver.
For det andet kontroltabet. Du kan ikke validere mellemtrin. Hvis analysen i trin 3 bygger på fejlagtig kategorisering fra trin 1, opdager du det først i det endelige output.
Prompt chaining løser begge: hvert trin har klar fokus, og du kan validere — og korrigere — output mellemtrin.
En typisk SEO prompt chain
Her er et eksempel på en SEO-analyse-pipeline med fire trin:
Trin 1 — Kategorisering
Input: 200 søgeord
Prompt: Kategoriser disse søgeord efter søgeintention (informational/commercial/transactional/navigational).
Returner JSON med keyword og intention.
Output: JSON-array med 200 kategoriserede søgeord
Trin 2 — Prioritering
Input: JSON fra trin 1 + søgevolumen-data
Prompt: Identificer de 20 vigtigste søgeord baseret på intention og volumen for en B2B SaaS-virksomhed.
Output: Prioriteret liste med rationale
Trin 3 — Content gaps
Input: Prioriteret liste fra trin 2 + eksisterende sidestruktur
Prompt: Identificer hvilke søgeord der ikke er dækket af eksisterende indhold.
Output: Gap-liste med anbefalede nye sider
Trin 4 — Anbefalinger
Input: Gap-liste fra trin 3
Prompt: Skriv konkrete implementeringsanbefalinger for de 5 vigtigste gaps.
Output: Handlingsplan
Implementering i Python
import anthropic
client = anthropic.Anthropic()
def chain_step(prompt, context=""):
messages = [{"role": "user", "content": f"{context}\n\n{prompt}" if context else prompt}]
response = client.messages.create(
model="claude-sonnet-4-6",
max_tokens=2048,
messages=messages
)
return response.content[0].text
# Trin 1
output_1 = chain_step("Kategoriser disse søgeord efter intention: [liste]")
# Validering
if "informational" not in output_1:
raise ValueError("Uventet output fra trin 1")
# Trin 2 — output_1 som kontekst
output_2 = chain_step(
"Prioriter de 20 vigtigste søgeord for B2B SaaS.",
context=f"Kategoriseret søgeordsliste:\n{output_1}"
)
Modelvalg per trin
En fordel ved prompt chaining er at bruge den rigtige model til hvert trin:
- Klassifikation og simple transformationer → Claude Haiku (hurtig, billig)
- Analyse og vurdering → Claude Sonnet (god balance)
- Kompleks strategisk output → Claude Opus eller Sonnet (bedst kvalitet)
Hybrid-pipelines reducerer omkostninger markant ved high-volume workflows.
Sidst opdateret: marts 2026. Denne artikel er en del af Stegger.dk’s SEO-ordbog.
Andre artikler i samme emne
- Chain-of-thought — Få LLM'er til at tænke højt og ræsonnere bedre
- Few-shot prompting — Lær modellen via eksempler i prompten
- Prompt engineering til SEO — Teknikker der faktisk virker
- Structured output — Få LLM'er til at returnere JSON og andre formater
- System prompt — Instruktioner der definerer modellens adfærd
- Zero-shot prompting — Instruktion uden eksempler
Ofte stillede spørgsmål
- Hvad er forskellen på prompt chaining og chain-of-thought?
- Chain-of-thought er en teknik inden for én enkelt prompt: du beder modellen vise sin ræsonnering trin for trin inden konklusionen. Prompt chaining er en arkitekturel teknik der kæder multiple separate API-kald: output fra kald 1 bruges som input til kald 2. Chain-of-thought forbedrer ræsonnering inden for ét kald. Prompt chaining koordinerer multiple kald til komplekse workflows.
- Hvornår er prompt chaining bedre end én lang prompt?
- Prompt chaining er bedre når: opgaven har naturlige sekventielle trin, hvert trin kræver fuld opmærksomhed og context window, du vil validere output mellemtrin og korrigere inden næste trin, eller du vil bruge forskellig modeller til forskellige trin (f.eks. Haiku til klassifikation, Sonnet til analyse). Én lang prompt er enklere men kan give diffust output på komplekse, multi-facetterede opgaver.
- Kan fejl i tidlige trin forplante sig til senere trin?
- Ja — det er den primære risiko ved prompt chaining. Fejl, hallucinationer eller unøjagtigheder i trin 1 videreføres til trin 2 og forstærkes. Løsningen er validering mellemtrin: sæt et valideringstrin ind der kontrollerer output fra hvert kritisk trin inden det sendes videre. For automatiserede pipelines: definér hvad 'godkendt output' ser ud og implementer fejlhåndtering.
Placering i ordbogen
- Chain-of-thought — Få LLM'er til at tænke højt og ræsonnere bedre
- Few-shot prompting — Lær modellen via eksempler i prompten
- Prompt engineering til SEO — Teknikker der faktisk virker
- Structured output — Få LLM'er til at returnere JSON og andre formater
- System prompt — Instruktioner der definerer modellens adfærd
- Zero-shot prompting — Instruktion uden eksempler