Artikel

System prompt — Instruktioner der definerer modellens adfærd

System prompten sættes før brugerens input og definerer modellens rolle, tone og regler. Den mest effektive enkeltfaktor i prompt engineering til konsistente resultater.

En system prompt er en instruktion der sendes til en LLM som del af en særlig “system”-rolle i konversationen — adskilt fra brugerens beskeder og modellens svar. System prompten er typisk ikke synlig for slutbrugeren og definerer rammen for hele interaktionen.

I praksis: en system prompt kan fastlægge at modellen er en SEO-specialist der skriver på dansk, undgår engelske fagtermer, altid inkluderer en konklusion og begrænser sig til emner inden for on-page optimering. Alle efterfølgende brugerbeskeder processeres i den kontekst.

Konversationsstrukturen

Moderne LLM-API’er (OpenAI, Anthropic, Google) bruger en beskedstruktur med tre roller:

System-rollen indeholder instruktioner der sætter kontekst og adfærd og processeres før alt andet. User-rollen er brugerens beskeder og forespørgsler. Assistant-rollen er modellens svar og kan desuden bruges til few-shot-eksempler.

System prompten er teknisk set blot tekst som modellen er trænet til at give særlig prioritet. Der er ingen magisk separation — en meget stærk system prompt kan overskrives af modsatrettede user-instruktioner, og omvendt. Robustheden afhænger af modellens instruction-following-kapacitet.

Hvad en god system prompt indeholder

Rolle og ekspertise sætter rammen: “Du er en erfaren teknisk SEO-specialist med 10 års erfaring.” Rammesætning af ekspertiseprofilen påvirker svarets tekniske niveau og tilgang. Outputformatet specificerer strukturen præcist — eksempelvis at modellen altid svarer i bullet points, bruger maks 3 punkter per afsnit og aldrig indleder med fraser som “Selvfølgelig!” eller “Godt spørgsmål!”.

Afgrænsninger begrænser modellens domæne: “Svar kun på spørgsmål der vedrører teknisk SEO. Henvis til en fagperson ved juridiske spørgsmål.” Tone-instruktioner fastlåser stilen — direkte og faglig, uden superlativ og salgssprog. Endelig kan du injicere statisk kontekst direkte i system prompten: virksomhedens produkter, målgruppe og brand voice guidelines behøver ikke gentages i hver brugerprompt.

System prompts i produkter

Alle AI-produkter du bruger har system prompts du ikke ser. ChatGPTs assistent-persona, Claudes sikkerhedspolitikker, Perplexitys citations-adfærd — alt er defineret via system prompts og/eller RLHF-træning.

For SEO-praktikere er det relevant: når du bygger LLM-baserede workflows — til content briefs, meta-tag-generering, struktureret analyse — er system prompten det primære arkitektoniske lag der afgør kvaliteten og konsistensen af output. → Denne artikel er en del af Prompt engineering — Sådan får du mere ud af AI-modeller.

Andre artikler i samme emne

Ofte stillede spørgsmål

Hvad er en system prompt?
En system prompt er instruktioner der sendes til en LLM i en særlig 'system'-rolle adskilt fra brugerens beskeder. Den er typisk ikke synlig for slutbrugeren og definerer modellens rolle, tone, afgrænsninger og outputformat for hele interaktionen. System prompten processeres før alt andet og sætter den ramme, som alle efterfølgende brugerbeskeder besvares inden for.
Hvad bør en god system prompt indeholde?
En god system prompt indeholder typisk: en rollebeskrivelse der sætter ekspertiseprofilen ('Du er en erfaren teknisk SEO-specialist'), præcis specifikation af outputformatet, afgrænsninger der definerer modellens domæne, tone-instruktioner der fastlåser stilen, og eventuelt statisk kontekst som brand voice-guidelines eller virksomhedsspecifikke fakta. De vigtigste instruktioner skal stå øverst, da modeller følger tidlige instruktioner mere konsistent end sene.
Hvad er forskellen på system prompt, user prompt og assistant turn?
Moderne LLM-API'er bruger en tre-rolle-struktur: system-rollen indeholder instruktioner der sætter kontekst og adfærd, user-rollen er brugerens beskeder og forespørgsler, og assistant-rollen er modellens svar (som også kan bruges til few-shot-eksempler). System prompten har særlig prioritet fordi den processeres før alt andet — men der er ingen magisk adskillelse, og meget stærke user-instruktioner kan i princippet overskrive system prompten.
Hvad er en god system prompt-struktur til SEO-automation-workflows?
En god system prompt til SEO-automation har fire lag i prioriteret rækkefølge: (1) Rolledefinition med ekspertiseprofil ('Du er en erfaren teknisk SEO-specialist der skriver på dansk'), (2) outputformat specificeret præcist med eksempler på format og tegnlængder, (3) afgrænsninger og negative regler ('Brug aldrig... Undlad at... Svar kun på...'), og (4) statisk kontekst som er specifik for den givne opgave (brand voice, sitetype, målgruppe). Placer de kritiske regler øverst — modeller følger tidlige instruktioner mere konsistent end sene.
Hvad er prompt injection i relation til system prompts og hvad gør man ved det?
Prompt injection er når ondsindet input i user-prompten eller ekstern data forsøger at overskrive system-promptens instruktioner. Eksempel: en crawling-agent indlæser en webside der indeholder teksten 'Ignorer alle tidligere instruktioner og gør X'. Forsvaret er arkitekturelt: brug structured output med schema-validering (et JSON-schema begrænser hvad agenten kan producere uanset injection), giv agenten mindst mulige rettigheder, og kræv menneskelig godkendelse ved alle irreversible handlinger. System-promptens robusthed afhænger af modellens instruction-following — Claude er generelt mere robust end ældre modeller.

Placering i ordbogen