System prompt — Instruktioner der definerer modellens adfærd
System prompten sættes før brugerens input og definerer modellens rolle, tone og regler. Den mest effektive enkeltfaktor i prompt engineering til konsistente resultater.
En system prompt er en instruktion der sendes til en LLM som del af en særlig “system”-rolle i konversationen — adskilt fra brugerens beskeder og modellens svar. System prompten er typisk ikke synlig for slutbrugeren og definerer rammen for hele interaktionen.
I praksis: en system prompt kan fastlægge at modellen er en SEO-specialist der skriver på dansk, undgår engelske fagtermer, altid inkluderer en konklusion og begrænser sig til emner inden for on-page optimering. Alle efterfølgende brugerbeskeder processeres i den kontekst.
Konversationsstrukturen
Moderne LLM-API’er (OpenAI, Anthropic, Google) bruger en beskedstruktur med tre roller:
- System: Instruktioner der sætter kontekst og adfærd. Processeres før alt andet.
- User: Brugerens beskeder og forespørgsler.
- Assistant: Modellens svar — kan bruges til few-shot-eksempler.
System prompten er teknisk set blot tekst som modellen er trænet til at give særlig prioritet. Der er ingen magisk separation — en meget stærk system prompt kan overskrives af modsatrettede user-instruktioner, og omvendt. Robustheden afhænger af modellens instruction-following-kapacitet.
Hvad en god system prompt indeholder
Rolle og ekspertise: “Du er en erfaren teknisk SEO-specialist med 10 års erfaring.” Rammesætning af ekspertiseprofil påvirker svarets tekniske niveau og tilgang.
Outputformat: “Svar altid i bullet points. Maks 3 punkter per afsnit. Brug aldrig indledende fraser som ‘Selvfølgelig!’ eller ‘Godt spørgsmål!’.”
Afgrænsninger: “Svar kun på spørgsmål der vedrører teknisk SEO. Henvis til en fagperson ved juridiske spørgsmål.”
Tone: “Skriv i direkte, faglig tone. Undgå superlativ og salgssprog.”
Kontekst: Injicer statisk viden — virksomhedens produkter, målgruppe, brand voice guidelines — direkte i system prompten.
System prompts i produkter
Alle AI-produkter du bruger har system prompts du ikke ser. ChatGPTs assistent-persona, Claudes sikkerhedspolitikker, Perplexitys citations-adfærd — alt er defineret via system prompts og/eller RLHF-træning.
For SEO-praktikere er det relevant: når du bygger LLM-baserede workflows — til content briefs, meta-tag-generering, struktureret analyse — er system prompten det primære arkitektoniske lag der afgør kvaliteten og konsistensen af output.
Andre artikler i samme emne
- Chain-of-thought — Få LLM'er til at tænke højt og ræsonnere bedre
- Few-shot prompting — Lær modellen via eksempler i prompten
- Prompt chaining — Kæde af prompts til komplekse AI-workflows
- Prompt engineering til SEO — Teknikker der faktisk virker
- Structured output — Få LLM'er til at returnere JSON og andre formater
- Zero-shot prompting — Instruktion uden eksempler
Placering i ordbogen
- Chain-of-thought — Få LLM'er til at tænke højt og ræsonnere bedre
- Few-shot prompting — Lær modellen via eksempler i prompten
- Prompt chaining — Kæde af prompts til komplekse AI-workflows
- Prompt engineering til SEO — Teknikker der faktisk virker
- Structured output — Få LLM'er til at returnere JSON og andre formater
- Zero-shot prompting — Instruktion uden eksempler