Artikel

Few-shot prompting — Lær modellen via eksempler i prompten

Few-shot prompting injicerer 2-5 eksempler på ønsket output direkte i prompten. Den hurtigste vej til konsistent format og tone uden fine-tuning.

Few-shot prompting er teknikken hvor du inkluderer 2-8 eksempler på ønsket input/output-par direkte i prompten — og modellen generaliserer mønstret til det nye input. Det udnytter LLM’ers evne til in-context learning: de behøver ikke gentrænning for at lære nye mønstre, de kan tilegne sig dem fra eksempler i kontekstvinduet.

Forskellen fra zero-shot er praktisk tydelig. Zero-shot til meta-tagsgenerering: “Skriv en meta description til denne side.” Few-shot: [3 eksempler med side-input og tilhørende meta description i præcis det format og den tone du ønsker] → [ny sides input]. Outputtet er langt mere konsistent i format, længde og tone.

One-shot, few-shot og many-shot

Zero-shot bruger ingen eksempler — kun instruktion — og fungerer godt for enkle, klart definerede opgaver. One-shot giver modellen ét eksempel, hvilket hjælper med format men giver lidt at generalisere fra.

Few-shot med 2-8 eksempler er guldstandarden for de fleste formaterede opgaver: nok til at modellen lærer mønstret, ikke så mange at det æder context window. Many-shot med 10 eller flere eksempler er relevant for nuancerede mønstre eller sjældne edge cases, men kræver et stort context window.

Konstruktion af gode eksempler

Eksemplernes kvalitet er afgørende. Dårlige eksempler er værre end ingen eksempler — modellen lærer det forkerte mønster.

Diversitet handler om at dække variationen i dit faktiske inputrum. Genererer du meta descriptions for e-commerce-sider, informationssider og kategorisider, skal eksemplerne dække alle tre typer. Konsistens er ligeså kritisk: alle eksempler skal følge præcis det samme format du ønsker i output, fordi inkonsistente eksempler giver inkonsistent output. Brug desuden rigtige eksempler fra dit eget indhold frem for konstruerede — de afspejler den faktiske distribution bedre.

Few-shot vs. fine-tuning

Few-shot prompting og fine-tuning løser det samme problem: at få en model til at følge et bestemt format eller en bestemt stil. Few-shot er langt hurtigere og billigere at implementere — fine-tuning er relevant hvis du har høj volumen og vil spare context-tokens, eller hvis mønstret er for komplekst til at lære fra få eksempler.

Tommelfingerreglen: start med few-shot. Overvej fine-tuning først når few-shot konsekvent ikke er tilstrækkeligt. → Denne artikel er en del af Prompt engineering — Sådan får du mere ud af AI-modeller.

Andre artikler i samme emne

Ofte stillede spørgsmål

Hvad er few-shot prompting?
Few-shot prompting er teknikken hvor du inkluderer 2-8 eksempler på ønsket input/output-par direkte i prompten. Modellen generaliserer mønstret fra eksemplerne og anvender det på nyt input. Det udnytter LLM'ers evne til in-context learning — de kan tilegne sig nye mønstre fra eksempler i kontekstvinduet uden gentrænning.
Hvornår er few-shot bedre end zero-shot prompting?
Few-shot er bedre end zero-shot når outputformatet er meget specifikt og afviger fra standardformater, når opgaven kræver domænespecifik tone eller terminologi, og når klassifikation involverer mange kategorier med nuancerede grænseflader. For enkle, veldefinerede opgaver er zero-shot tilstrækkeligt — begynd altid med zero-shot og tilføj eksempler kun hvis outputkvaliteten er utilstrækkelig.
Hvad er forskellen på few-shot prompting og fine-tuning?
Few-shot prompting injicerer eksempler i prompten ved hvert kald — det kræver ingen ændring af modellen og er hurtigt at implementere. Fine-tuning træner modellen direkte på dine eksempler og ændrer dens vægte permanent. Resultatet: fine-tuning giver kortere prompts i drift og er bedre ved meget høj volumen, men kræver tid, data og penge at sætte op. Tommelfingerreglen er at starte med few-shot og overveje fine-tuning først når few-shot konsekvent ikke er tilstrækkeligt.
Hvor mange eksempler er optimalt i en few-shot prompt?
For de fleste SEO-opgaver er 2-4 eksempler optimalt. Ét eksempel hjælper med format men giver modellen lidt at generalisere fra. Tre til fire eksempler dækker typisk variationen i standard-inputtyper (f.eks. produkt-, kategori- og blogside til meta-tag-generering) og giver konsistent output. Over 6-8 eksempler er der sjældent marginal forbedring, og du æder context window unødigt. Undtagelse: many-shot med 10+ eksempler kan være relevant ved opgaver med mange outputkategorier eller nuancerede grænser, men kræver et stort context window.
Kan eksempler i few-shot prompts skade outputkvaliteten?
Ja — dårlige eksempler er aktivt skadelige. Inkonsistente eksempler (der ikke alle følger det samme format) giver inkonsistent output. Eksempler der ikke afspejler den faktiske inputvariation giver modellen et forkert billede af opgaven. Og eksempler med fejl — forkert tegnlængde i meta descriptions, forkert tone, faktuelle unøjagtigheder — lærer modellen fejlen. Et enkelt perfekt eksempel er bedre end tre ufuldstændige. Validér altid dine few-shot eksempler mod de faktiske krav inden de bruges i produktion.

Placering i ordbogen