Zero-shot prompting — Instruktion uden eksempler
Zero-shot prompting giver modellen en instruktion uden eksempler. Det er udgangspunktet for alle prompts — og tilstrækkeligt til mange standardopgaver.
Zero-shot prompting er den grundlæggende form for prompting: du giver modellen en instruktion, og den udfører opgaven uden at have set eksempler på ønsket output. Det er udgangspunktet for enhver interaktion med en sprogmodel — og tilstrækkeligt til langt de fleste standardopgaver.
Hvad zero-shot er
Begrebet “zero-shot” stammer fra machine learning-forskning, hvor det refererer til en models evne til at udføre en opgave den ikke er specifikt trænet på. I promptingkontekst betyder det: ingen eksempler (shots) på ønsket input-output-par.
Alle tre promptingstyler adresserer det samme problem — at fortælle modellen præcist hvad den skal gøre — men på forskellig måde:
Zero-shot: “Kategoriser dette søgeord efter søgeintention: [søgeord]”
One-shot: “Kategoriser søgeintention. Eksempel: ‘køb iphone’ → transactional. Nu: [søgeord]”
Few-shot: “Kategoriser søgeintention. Eksempler: [5 input/output-par]. Nu: [søgeord]“
Hvornår zero-shot er tilstrækkeligt
Zero-shot fungerer godt til simple, veldefinerede opgaver som oversættelse, stavekontrol og opsummering. Standardformater — JSON, markdown, bullet points — er veldefinerede i træningsdata og kræver sjældent eksempler. Det samme gælder forklaring af kendte begreber og generel tekstgenerering, samt enkle klassifikationer som positiv/negativ sentiment og ja/nej-vurderinger.
Moderne modeller som Claude Sonnet og GPT-4o er kapable nok til at følge komplekse instruktioner zero-shot, forudsat instruksen er præcis og utvetydig.
Hvornår zero-shot fejler
Zero-shot er utilstrækkeligt i tre typiske situationer.
Output-formatet er meget specifikt
Hvis du ønsker output i et proprietært format der ikke svarer til standardformater, har modellen ingen reference for hvad “korrekt” ser ud. Few-shot med eksempler er markant bedre.
Opgaven kræver domænespecifik vurdering
“Vurder om denne tekst lever op til Stegger.dk’s tone” — uden eksempler på hvad den tone er, gætter modellen. Med eksempler kan den kalibrere og levere konsistent output.
Klassifikation med mange kategorier
Med 10+ kategorier og nuancerede grænseflader mellem dem giver eksempler på edge cases markant bedre konsistens end en instruktion alene.
Bedste praksis for zero-shot
Vær specifik om output-format
I stedet for “kategoriser disse søgeord” skriv “returner et JSON-array med objekter med felterne ‘keyword’ og ‘intention’ (værdierne ‘informational’, ‘commercial’, ‘transactional’, ‘navigational’)”. Præcisionen i instruktionen er det primære redskab i zero-shot.
Brug system-prompt til kontekst
Sæt rollen og opgaven i system-prompten, ikke i user-prompten. Det giver modellen bedre kontekst og mere konsistente svar på tværs af kald.
Test output-variansen
Kør den samme zero-shot prompt 3-5 gange. Hvis output varierer markant, er opgaven et kandidat til few-shot eller chain-of-thought — variation er et tegn på, at modellen ikke har tilstrækkelig reference for hvad “korrekt” er.
Tilføj eksempler ved behov — ikke som standard
Begynd med zero-shot, evaluer output-kvaliteten, og tilføj eksempler kun hvis det er nødvendigt. Unødvendige eksempler forbruger tokens og øger prompt-kompleksiteten uden gevinst.
Sidst opdateret: marts 2026. Denne artikel er en del af Stegger.dk’s SEO-ordbog. → Denne artikel er en del af Prompt engineering — Sådan får du mere ud af AI-modeller.
Andre artikler i samme emne
- Chain-of-thought — Få LLM'er til at tænke højt og ræsonnere bedre
- Few-shot prompting — Lær modellen via eksempler i prompten
- Prompt chaining — Kæde af prompts til komplekse AI-workflows
- Prompt engineering til SEO — Teknikker der faktisk virker
- Structured output — Få LLM'er til at returnere JSON og andre formater
- System prompt — Instruktioner der definerer modellens adfærd
Ofte stillede spørgsmål
- Hvad er zero-shot, one-shot og few-shot prompting?
- Zero-shot: du giver kun en instruktion uden eksempler. One-shot: du giver ét eksempel på ønsket input/output. Few-shot: du giver 2-5 eksempler. Jo mere kompleks opgaven er og jo mere specifikt formatet er, jo mere sandsynligt er det at few-shot giver bedre output end zero-shot. For simple, veldefinerede opgaver er zero-shot tilstrækkeligt.
- Hvornår fejler zero-shot prompting?
- Zero-shot fejler typisk ved: meget specifikt output-format der afviger fra standardformater, domænespecifikke opgaver med særlig terminologi, opgaver der kræver nuanceret vurdering efter specifikke kriterier, og klassifikationsopgaver med mange kategorier. I disse tilfælde giver few-shot prompting med konkrete eksempler markant bedre resultater.
- Er zero-shot prompting det samme som en simpel prompt?
- Zero-shot refererer specifikt til fravær af eksempler — ikke til promptens kompleksitet. En zero-shot prompt kan være meget detaljeret med en lang systemp-prompt, rollebeskrivelse og præcis output-specifikation. Det den ikke har er konkrete input/output-eksempler. En simpel prompt er typisk zero-shot, men zero-shot kan sagtens være sofistikeret.
- Hvad er zero-shot chain-of-thought og hvornår er det nyttigt?
- Zero-shot chain-of-thought er teknikken at tilføje 'Tænk trin for trin' til en zero-shot prompt — uden at give eksempler på ræsonneringsprocessen. Det er overraskende effektivt: modellen genererer sin egen ræsonneringssekvens og ender typisk med bedre svar på opgaver der kræver multi-step logik. For SEO er det nyttigt til: prioritering af tekniske issues ('Analyser disse issues og tænk trin for trin over hvilke der har størst impact'), nuancerede content-vurderinger og strategiske anbefalinger der kræver afvejning af multiple faktorer.
- Hvornår er det bedre at bruge zero-shot med en stærk system prompt frem for few-shot?
- Zero-shot med en præcis system prompt er bedre end few-shot når: du ikke har verificerede eksempler af høj kvalitet tilgængeligt, eksempler ville forbruge for mange tokens og reducere plads til faktisk indhold, opgaven er tilstrækkeligt standard til at modellen allerede kender mønstret, og du arbejder med Claude Sonnet 4.6 eller GPT-4o der er stærke instruction-followers. Few-shot er bedre når outputformatet er meget specifikt og proprietært, eller når tone og stil skal kalibreres præcist mod dit brand.
Placering i ordbogen
- Chain-of-thought — Få LLM'er til at tænke højt og ræsonnere bedre
- Few-shot prompting — Lær modellen via eksempler i prompten
- Prompt chaining — Kæde af prompts til komplekse AI-workflows
- Prompt engineering til SEO — Teknikker der faktisk virker
- Structured output — Få LLM'er til at returnere JSON og andre formater
- System prompt — Instruktioner der definerer modellens adfærd