Prompt engineering til SEO — Teknikker der faktisk virker
Prompt engineering til SEO: konkrete teknikker til meta-tags, content briefs, keyword-analyse og teknisk audit. System prompts, few-shot og structured output i praksis.
Prompt engineering til SEO er ikke teori — det er et praktisk håndværk der direkte afgør om du får konsistent, brugbart output fra en LLM til meta-tags, content briefs og teknisk analyse, eller bruger 20 minutter på at redigere inkonsistent AI-output. De teknikker der er mest effektive i SEO-sammenhæng adskiller sig fra generel prompting ved at lægge ekstra vægt på outputformat, batch-konsistens og maskinel integration.
De tre vigtigste principper i al SEO-prompt engineering:
- Specificer outputformat præcist — LLM’en gætter ikke hvad du vil have, hvis du ikke fortæller den det
- Giv kontekst om opgaven — hvad er sidetypen, målgruppen, brand voice?
- Brug few-shot eksempler til formaterede outputs — ét godt eksempel er bedre end fire linjer instrukton
Meta-tag-generering
Den klassiske SEO-LLM-opgave. Et system prompt der virker:
Du er en erfaren SEO-specialist der skriver meta titles og meta descriptions på dansk.
Regler:
- Meta title: 50-60 tegn inkl. mellemrum. Inkluder primært søgeord tidligt. Ingen salgssnak.
- Meta description: 140-160 tegn. Opsummer sideinholdet og inkluder et call-to-action.
- Skriv i direkte, informativ tone — ikke "lær alt om X", men "Forstå X: [konkret indhold]"
- Brug aldrig "Klik her", "Lær mere" eller lignende generiske formuleringer
Output format (JSON):
{"meta_title": "...", "meta_description": "..."}
Med few-shot eksempler i user-prompten og structured output mode er denne prompt batch-klar.
Content brief-generering
Chain-of-thought er nyttigt her — bed modellen om at ræsonnere over topical coverage før den skriver briefen:
Analyser de følgende 5 konkurrerende artikler om [emne]. Tænk trin for trin:
1. Hvilke undertemaer dækker alle artikler? (obligatorisk stof)
2. Hvilke undertemaer dækker kun 1-2 artikler? (differentieringsmuligheder)
3. Hvad mangler alle artikler? (content gap)
Skriv derefter et content brief med: primært søgeord, 8-10 H2-overskrifter i prioriteret rækkefølge, og 3 anbefalede interne links.
Keyword-analyse og clustering
Embeddings er den rigtige tekniske løsning til keyword-clustering — men for quick-and-dirty analyse på 50-100 keywords er en LLM med god prompt hurtigere:
Her er en liste med 80 søgeord [indsæt liste].
Grupér dem i semantiske clusters på 5-12 keywords per cluster.
Giv hvert cluster:
- Et navn der beskriver det overordnede tema
- Den primære søgeintention (informational/commercial/transactional)
- Det søgeord med højest estimeret volume som pillar-søgeord
Output: JSON-array med cluster-objekter.
Teknisk SEO-analyse
Chain-of-thought + structured output kombineret:
Analyser følgende Screaming Frog-export [indsæt CSV-data].
Tænk trinvist igennem:
1. Identificer alle sider med 4xx/5xx statuskoder
2. Find sider med manglende eller dublerede title/description
3. Identificer redirect-kæder (3+ hop)
4. Find sider med for lav intern linking (< 3 interne links)
For hvert issue: skriv impact (høj/middel/lav), antal berørte sider og anbefalet fix.
Output som struktureret JSON.
Fejl at undgå
For vag prompt: “Skriv en god meta description til denne side” giver generisk output. Specificer format, tegntælling og tone.
Ingen eksempler ved formaterede outputs: Uden few-shot ser modellen ikke hvad du mener med “præcis format”.
For lang system prompt uden prioritering: Modeller følger de første instruktioner bedre end de sidst nævnte. Sæt de vigtigste regler øverst.
Adversarial prompting til kvalitetssikring
Adversarial prompting er teknikken at bede modellen aktivt argumentere imod sin første konklusion. I SEO-workflows bruges det primært til tre formål: content review (bed modellen finde de tre vigtigste svagheder i en artikel den netop har analyseret positivt), keyword-strategi (bed modellen argumentere for at den valgte prioritering er forkert), og teknisk audit (bed modellen identificere hvad analysen overser). Det modvirker sycophancy — LLM’ers tendens til at bekræfte frem for at kritisere.
Formuleringen er typisk simpel: “Argumenter nu imod din konklusion ovenfor. Hvad er de tre stærkeste argumenter for at denne strategi er forkert?”
Modelvalg og SEO-prompt engineering
Ikke alle SEO-opgaver kræver den stærkeste model. En praktisk tommelfingerregel:
- Klassificering og simple transformationer (fx kategoriisering af 500 søgeord): brug Haiku eller GPT-4o mini — billigt og hurtigt
- Strukturerede outputs med format-constraints (meta-tags, content briefs): Sonnet eller GPT-4o — godt pris/kvalitets-forhold
- Komplekse analyser med long-form output (teknisk SEO-rapport, topical gap-analyse): Opus eller o3 — når dybde og sammenhæng over lange outputs er kritisk
For batch-opgaver i skala er modelvalget den primære omkostningsfaktor. Haiku er typisk 20-30x billigere end Opus per token. En pilotkørsel på 50 URL’er med Sonnet verificerer outputkvaliteten inden man kører 5.000 URL’er.
Integration med søgeordsdata
Den mest effektive SEO-prompt-strategi er at bringe faktiske søgedata ind i prompten i stedet for at bede modellen gætte. Send SERP-data, GSC-metrics eller Ahrefs-export direkte i prompten og bed modellen analysere ud fra reelle tal frem for antagelser. En model der arbejder med “søgeord X har 1.200 månedlige søgninger og SERP’en domineres af listicles med 8+ punkter” giver markant bedre anbefalinger end en der arbejder uden datagrundlag.
→ Denne artikel er en del af Prompt engineering — Sådan får du mere ud af AI-modeller.
Andre artikler i samme emne
- Chain-of-thought — Få LLM'er til at tænke højt og ræsonnere bedre
- Few-shot prompting — Lær modellen via eksempler i prompten
- Prompt chaining — Kæde af prompts til komplekse AI-workflows
- Structured output — Få LLM'er til at returnere JSON og andre formater
- System prompt — Instruktioner der definerer modellens adfærd
- Zero-shot prompting — Instruktion uden eksempler
Ofte stillede spørgsmål
- Hvad er de vigtigste principper i prompt engineering til SEO?
- De tre vigtigste principper er: specificer outputformatet præcist (LLM'en gætter ikke hvad du vil have, hvis du ikke fortæller den det — brug JSON, markdownstruktur eller konkrete formatkrav), giv kontekst om opgaven (sidetype, målgruppe, brand voice), og brug few-shot eksempler til formaterede outputs (ét godt eksempel er bedre end fire linjer instruktion). For batch-opgaver som meta-tag-generering er system prompt + few-shot + structured output-mode kombinationen der giver konsistent, skalerbar output.
- Hvad er de typiske fejl i SEO-prompts?
- De tre hyppigste fejl: for vag prompt ('Skriv en god meta description til denne side' giver generisk output — specificer format, tegntælling og tone i stedet), ingen eksempler ved formaterede outputs (uden few-shot ser modellen ikke hvad du mener med 'præcist format'), og for lang system prompt uden prioritering (modeller følger de første instruktioner bedre end de sidst nævnte — sæt de vigtigste regler øverst). En prompt der angiver 'meta title: 50-60 tegn, inkluder primært søgeord tidligt, ingen salgssnak' giver markant bedre output end 'skriv en god titel'.
- Hvornår er chain-of-thought nyttigt i SEO-prompts?
- Chain-of-thought er nyttigt til SEO-opgaver der kræver ræsonnement over flere dimensioner: content brief-generering (bed modellen ræsonnere over topical coverage, gaps og differentieringsmuligheder før den skriver briefen), teknisk SEO-analyse (identificer issues trinvist og prioriter dem efter impact), og konkurrentanalyse (analyser hvad der dækkes, hvad der mangler, og hvad der adskiller). For enkle, formaterede opgaver som meta-tag-generering er chain-of-thought unødvendigt — structured output og few-shot er tilstrækkeligt.
- Hvordan bygger man en robust system prompt til bulk meta-tag-generering?
- En robust system prompt til meta-tag-bulk-generering indeholder fire elementer: (1) rolleangivelse der sætter SEO-ekspertiseprofilen, (2) præcise format-constraints med tegnlængder (meta title: 50-60 tegn, meta description: 140-160 tegn), (3) eksplicitte tone-regler der forbyder klicheer ('Klik her', 'Lær alt om X'), og (4) JSON-outputformat så resultatet er maskin-læsbart. Kombineret med few-shot eksempler i user-prompten og structured output mode i API-kaldet giver dette konsistent output på 1.000+ sider uden manuel review per side.
- Hvad er adversarial prompting og hvornår er det relevant i SEO-workflows?
- Adversarial prompting er teknikken at bede modellen aktivt om at argumentere imod sin første konklusion eller finde svagheder i det output den netop har produceret. I SEO er det relevant i tre scenarier: content review (bed modellen finde de tre vigtigste svagheder i en artikel den netop har analyseret positivt), keyword-strategi (bed modellen argumentere for at den valgte keyword-strategi er forkert og foreslå et alternativ), og teknisk audit (bed modellen identificere hvad analysen overser). Det modvirker sycophancy — LLM'ers tendens til at bekræfte fremfor at kritisere.
Placering i ordbogen
- Chain-of-thought — Få LLM'er til at tænke højt og ræsonnere bedre
- Few-shot prompting — Lær modellen via eksempler i prompten
- Prompt chaining — Kæde af prompts til komplekse AI-workflows
- Structured output — Få LLM'er til at returnere JSON og andre formater
- System prompt — Instruktioner der definerer modellens adfærd
- Zero-shot prompting — Instruktion uden eksempler