Artikel

System prompt — Instruktioner der definerer modellens adfærd

System prompten sættes før brugerens input og definerer modellens rolle, tone og regler. Den mest effektive enkeltfaktor i prompt engineering til konsistente resultater.

En system prompt er en instruktion der sendes til en LLM som del af en særlig “system”-rolle i konversationen — adskilt fra brugerens beskeder og modellens svar. System prompten er typisk ikke synlig for slutbrugeren og definerer rammen for hele interaktionen.

I praksis: en system prompt kan fastlægge at modellen er en SEO-specialist der skriver på dansk, undgår engelske fagtermer, altid inkluderer en konklusion og begrænser sig til emner inden for on-page optimering. Alle efterfølgende brugerbeskeder processeres i den kontekst.

Konversationsstrukturen

Moderne LLM-API’er (OpenAI, Anthropic, Google) bruger en beskedstruktur med tre roller:

  • System: Instruktioner der sætter kontekst og adfærd. Processeres før alt andet.
  • User: Brugerens beskeder og forespørgsler.
  • Assistant: Modellens svar — kan bruges til few-shot-eksempler.

System prompten er teknisk set blot tekst som modellen er trænet til at give særlig prioritet. Der er ingen magisk separation — en meget stærk system prompt kan overskrives af modsatrettede user-instruktioner, og omvendt. Robustheden afhænger af modellens instruction-following-kapacitet.

Hvad en god system prompt indeholder

Rolle og ekspertise: “Du er en erfaren teknisk SEO-specialist med 10 års erfaring.” Rammesætning af ekspertiseprofil påvirker svarets tekniske niveau og tilgang.

Outputformat: “Svar altid i bullet points. Maks 3 punkter per afsnit. Brug aldrig indledende fraser som ‘Selvfølgelig!’ eller ‘Godt spørgsmål!’.”

Afgrænsninger: “Svar kun på spørgsmål der vedrører teknisk SEO. Henvis til en fagperson ved juridiske spørgsmål.”

Tone: “Skriv i direkte, faglig tone. Undgå superlativ og salgssprog.”

Kontekst: Injicer statisk viden — virksomhedens produkter, målgruppe, brand voice guidelines — direkte i system prompten.

System prompts i produkter

Alle AI-produkter du bruger har system prompts du ikke ser. ChatGPTs assistent-persona, Claudes sikkerhedspolitikker, Perplexitys citations-adfærd — alt er defineret via system prompts og/eller RLHF-træning.

For SEO-praktikere er det relevant: når du bygger LLM-baserede workflows — til content briefs, meta-tag-generering, struktureret analyse — er system prompten det primære arkitektoniske lag der afgør kvaliteten og konsistensen af output.

Andre artikler i samme emne

Placering i ordbogen