Few-shot prompting — Lær modellen via eksempler i prompten
Few-shot prompting injicerer 2-5 eksempler på ønsket output direkte i prompten. Den hurtigste vej til konsistent format og tone uden fine-tuning.
Few-shot prompting er teknikken hvor du inkluderer 2-8 eksempler på ønsket input/output-par direkte i prompten — og modellen generaliserer mønstret til det nye input. Det udnytter LLM’ers evne til in-context learning: de behøver ikke gentrænning for at lære nye mønstre, de kan tilegne sig dem fra eksempler i kontekstvinduet.
Forskellen fra zero-shot er praktisk tydelig. Zero-shot til meta-tagsgenerering: “Skriv en meta description til denne side.” Few-shot: [3 eksempler med side-input og tilhørende meta description i præcis det format og den tone du ønsker] → [ny sides input]. Outputtet er langt mere konsistent i format, længde og tone.
One-shot, few-shot og many-shot
Zero-shot: Ingen eksempler — kun instruktion. Fungerer godt for enkle, klart definerede opgaver.
One-shot: Ét eksempel. Hjælper med format men giver modellen lidt at generalisere fra.
Few-shot (2-8 eksempler): Guldstandarden for de fleste formaterede opgaver. Nok til at modellen lærer mønstret, ikke så mange at det æder context window.
Many-shot (10+ eksempler): Relevant for nuancerede mønstre eller sjældne edge cases. Kræver stort context window.
Konstruktion af gode eksempler
Eksemplernes kvalitet er afgørende. Dårlige eksempler er værre end ingen eksempler — modellen lærer det forkerte mønster.
Diversitet: Dæk variationen i dit faktiske inputrum. Hvis du genererer meta descriptions for e-commerce, informationssider og kategoriside, inkluder eksempler af alle tre typer.
Konsistens: Alle eksempler skal følge præcis det samme format du ønsker i output. Inkonsistente eksempler giver inkonsistent output.
Repræsentativitet: Brug rigtige eksempler fra dit eget indhold frem for konstruerede — de afspejler den faktiske distribution bedre.
Few-shot vs. fine-tuning
Few-shot prompting og fine-tuning løser det samme problem: at få en model til at følge et bestemt format eller en bestemt stil. Few-shot er langt hurtigere og billigere at implementere — fine-tuning er relevant hvis du har høj volumen og vil spare context-tokens, eller hvis mønstret er for komplekst til at lære fra få eksempler.
Tommelfingerreglen: start med few-shot. Overvej fine-tuning først når few-shot konsekvent ikke er tilstrækkeligt.
Andre artikler i samme emne
- Chain-of-thought — Få LLM'er til at tænke højt og ræsonnere bedre
- Prompt chaining — Kæde af prompts til komplekse AI-workflows
- Prompt engineering til SEO — Teknikker der faktisk virker
- Structured output — Få LLM'er til at returnere JSON og andre formater
- System prompt — Instruktioner der definerer modellens adfærd
- Zero-shot prompting — Instruktion uden eksempler
Placering i ordbogen
- Chain-of-thought — Få LLM'er til at tænke højt og ræsonnere bedre
- Prompt chaining — Kæde af prompts til komplekse AI-workflows
- Prompt engineering til SEO — Teknikker der faktisk virker
- Structured output — Få LLM'er til at returnere JSON og andre formater
- System prompt — Instruktioner der definerer modellens adfærd
- Zero-shot prompting — Instruktion uden eksempler