Prompt engineering — Sådan får du mere ud af AI-modeller
Prompt engineering er teknikken bag præcise AI-instruktioner. System prompts, chain-of-thought og structured output er de vigtigste teknikker for SEO-praktikere.
Prompt engineering er ikke et akademisk fag — det er det håndværk der afgør om du får brugbart output fra en AI-model eller spild af tokens. De fleste der er frustrerede over AI’s manglende præcision bruger for simple prompts. De der er imponerede over hvad AI kan, har lært at kommunikere præcist med modellerne.
Lad os skære igennem og tale om de teknikker der faktisk gør en forskel.
Hvad prompt engineering løser
En LLM forudsiger hvad der sandsynligvis kommer næste baseret på din input. En vag prompt giver vagt output — modellen “gætter” hvad du mener og vælger den mest sandsynlige fortolkning. En præcis prompt giver præcist output fordi du har indsnævret sandsynlighedsrummet.
Det lyder trivielt, men konsekvensen er vigtig: dårligt promptet AI og godt promptet AI er ikke to versioner af det samme — det er to fundamentalt forskellige produktivitetsværktøjer.
System prompts — fundamentet
En system prompt er instruktioner til modellen der sættes inden brugerens input. Den definerer rolle, adfærd, outputformat og begrænsninger. I de fleste agentic workflows og produktionsimplementeringer er system prompt’en det vigtigste element.
En effektiv system prompt for SEO-brug:
Du er en erfaren teknisk SEO-analytiker. Du analyserer websitedata og returnerer strukturerede vurderinger.
OUTPUTFORMAT: Returner altid valid JSON med følgende struktur:
{
"issues": [{"type": "string", "severity": "critical|high|medium|low", "description": "string", "recommendation": "string"}],
"summary": "string",
"score": number
}
REGLER:
- Returner kun JSON, ingen forklarende tekst rundt om
- Brug kun de fire severity-niveauer defineret ovenfor
- Maksimalt 10 issues per analyse
- Anbefalinger skal være handlingsrettede og konkrete
Denne system prompt definerer: hvad modellen er, hvad den gør, præcist outputformat og adfærdsregler. Modellen har meget lidt rum til at improvisere.
Few-shot prompting — vis frem for at forklare
Few-shot prompting er teknikken hvor du giver modellen eksempler på det output du ønsker frem for blot at beskrive det. Det er en af de mest effektive teknikker fordi det demonstrerer format og tone på en måde der er sværere at miscommunikere.
Eksempel:
Klassificer søgeintentionen for disse søgeord.
EKSEMPLER:
søgeord: "hvad er crawl budget" → intention: informational
søgeord: "køb seo software" → intention: transactional
søgeord: "screaming frog vs sitebulb" → intention: commercial investigation
SØGEORD AT KLASSIFICERE:
søgeord: "bedste meta title eksempler"
søgeord: "google search console login"
søgeord: "ahrefs pris"
Med tre eksempler har du vist modellen præcis hvad du forventer — format, kategorier og logikken bag klassificeringen.
Chain-of-thought — til komplekse analytiske opgaver
Chain-of-thought er teknikken der beder modellen om at tænke trin for trin inden den giver et svar. Det forbedrer præstationen markant på opgaver der kræver ræsonnering.
Enklest form: tilføj “Tænk trin for trin” eller “Forklar din ræsonnering inden du konkluderer” til din prompt. Det er nok til at aktivere chain-of-thought adfærd.
For mere kontrolleret chain-of-thought definerer du trinene eksplicit:
Analyser dette søgeord og vurder sværhedsgraden at rangere for det.
TRIN 1: Identificer søgeintentionen
TRIN 2: Vurder konkurrenceintensiteten baseret på følgende SERP-data: [data]
TRIN 3: Vurder om vores eksisterende content har topical authority på emnet
TRIN 4: Giv en samlet vurdering (1-10, 10 = sværest)
Vis ræsonnering for hvert trin.
Chain-of-thought er særlig nyttigt til: content quality-vurderinger, gap-analyse, strategiske prioriteringsbeslutninger — opgaver der kræver nuanceret ræsonnering frem for simpel klassificering.
Structured output — JSON som lingua franca
Structured output er teknikken der sikrer at modellen returnerer maskinlæsbart output. I en SEO-pipeline der bevæger data fra analyse til CMS til rapportering er JSON standardformatet.
To tilgange:
Instruktionsbaseret: Du definerer JSON-strukturen i system prompt og bruger few-shot eksempler. Virker godt med Claude og GPT-4o — men kræver downstream validering.
API-parameter: Anthropic og OpenAI understøtter begge “structured outputs” eller “tool use” som API-parametre der tvinger modellen til at returnere output der matcher et defineret JSON-schema. Det er mere pålideligt end instruktionsbaseret tilgang og reducerer behovet for fejlhåndtering.
For produktionsworkflows: brug altid API-parameter-tilgangen hvis den er tilgængelig. Det eliminerer kategorien af fejl hvor modellen producerer næsten-korrekt JSON.
Prompt engineering til SEO-opgaver
De mest værdifulde SEO-use cases for avanceret prompt engineering:
Bulk content-analyse: Du sender 100 URL’er og vil have vurderet content quality, duplicate risk og optimeringsmuligheder. Her er struktureret output + few-shot eksempler kombinationen der giver skalerbart output.
Søgeintentions-klassificering: Klassificér tusindvis af søgeord efter intention. Chain-of-thought er ikke nødvendigt — simple few-shot eksempler og structured output er nok.
Content gap-analyse: Du sender en konkurrents indhold og dit eget og vil have identificeret hvad de dækker som du ikke gør. Her er chain-of-thought nyttigt — opgaven kræver komparativ ræsonnering.
Meta-data generering: Skriv meta titles og descriptions til 500 sider. Nøglen er en system prompt der definerer format (length, tone, keyword-integration) med eksempler.
Fejl der koster dig output-kvalitet
For lang og diffus instruktion: En prompt på 2.000 ord med modsætningsfulde instruktioner giver inkonsistent output. Vær kortfattet og præcis.
Manglende outputformat-definition: Hvis du ikke definerer format, vælger modellen selv. Og den vælger det format der er mest sandsynligt i træningsdata — som er konverserende prosa, ikke JSON.
Ingen few-shot eksempler til komplekse klassificeringer: Modellen gætter på dine kategorier. Et enkelt eksempel per kategori eliminerer det problem.
Beder om for meget i én prompt: En prompt der skal analysere, klassificere, skrive anbefaling OG formatere som rapport giver suboptimalt resultat på alle dimensioner. Del opgaven op.
Prompt engineering som kompetence
Prompt engineering er ikke en engangsøvelse — det er en iterativ kompetence. Du tester en prompt, analyserer fejlmønstrene, justerer og gentager. Det bedste framework er at behandle prompts som kode: version-kontrollér dem, dokumentér hvad der virker, og byg et bibliotek af genbrugelige komponenter.
For SEO-teams der bygger AI-workflows er dette ikke optionalt. Det er kernen i hvad der adskiller workflows der leverer konsistent, brugbart output fra workflows der kræver konstant manuel korrektion.
Artikler i dette emne
- Chain-of-thought — Få LLM'er til at tænke højt og ræsonnere bedre Chain-of-thought beder modellen om at vise mellemtrin i ræsonnementet. Reducerer fejl markant på opgaver der kræver logik, matematik eller multi-step analyse.
- Few-shot prompting — Lær modellen via eksempler i prompten Few-shot prompting injicerer 2-5 eksempler på ønsket output direkte i prompten. Den hurtigste vej til konsistent format og tone uden fine-tuning.
- Prompt chaining — Kæde af prompts til komplekse AI-workflows Prompt chaining opdeler komplekse opgaver i sekventielle trin — output fra trin 1 er input til trin 2. Det er fundamentet for agentic AI-workflows.
- Prompt engineering til SEO — Teknikker der faktisk virker Prompt engineering til SEO: konkrete teknikker til meta-tags, content briefs, keyword-analyse og teknisk audit. System prompts, few-shot og structured output i praksis.
- Structured output — Få LLM'er til at returnere JSON og andre formater Structured output-mode tvinger modellen til at returnere validt JSON der matcher et schema. Fundamentet for pålideligt AI-workflow-integration og tool use.
- System prompt — Instruktioner der definerer modellens adfærd System prompten sættes før brugerens input og definerer modellens rolle, tone og regler. Den mest effektive enkeltfaktor i prompt engineering til konsistente resultater.
- Zero-shot prompting — Instruktion uden eksempler Zero-shot prompting giver modellen en instruktion uden eksempler. Det er udgangspunktet for alle prompts — og tilstrækkeligt til mange standardopgaver.
Ofte stillede spørgsmål
- Hvad er prompt engineering?
- Prompt engineering er den systematiske tilgang til at formulere instruktioner til AI-modeller der giver præcist og brugbart output. Det inkluderer system prompts der definerer modellens rolle, few-shot eksempler der viser ønsket format, og chain-of-thought instruktioner der guider ræsonneringen.
- Hvad er en system prompt?
- En system prompt er en skjult instruktion sat øverst i en LLM-session der definerer modellens rolle, regler og outputformat — inden brugeren skriver noget. I produktionssystemer specificerer system prompten outputformat, tone og begrænsninger der gælder for alle requests i sessionen.
- Hvad er few-shot prompting?
- Few-shot prompting er teknikken hvor du giver modellen 2-5 eksempler på ønsket input/output-par inden opgaven. Det er den mest effektive teknik til at kommunikere ønsket format — et godt eksempel er mere effektivt end en lang tekstbeskrivelse.
Placering i ordbogen
- Agentic AI — Autonome AI-agenter og agentic SEO-workflows
- ChatGPT og OpenAI — Modeller, API og brug til SEO
- Claude — Anthropics AI-model til SEO og agentic workflows
- Gemini og Google AI — Googles sprogmodeller og søgeintegration
- Generativ AI-historik — Fra spintax til sprogmodeller
- Sprogmodeller og LLM'er — Hvad de er og hvordan de virker