Artikel

Few-shot prompting — Lær modellen via eksempler i prompten

Few-shot prompting injicerer 2-5 eksempler på ønsket output direkte i prompten. Den hurtigste vej til konsistent format og tone uden fine-tuning.

Few-shot prompting er teknikken hvor du inkluderer 2-8 eksempler på ønsket input/output-par direkte i prompten — og modellen generaliserer mønstret til det nye input. Det udnytter LLM’ers evne til in-context learning: de behøver ikke gentrænning for at lære nye mønstre, de kan tilegne sig dem fra eksempler i kontekstvinduet.

Forskellen fra zero-shot er praktisk tydelig. Zero-shot til meta-tagsgenerering: “Skriv en meta description til denne side.” Few-shot: [3 eksempler med side-input og tilhørende meta description i præcis det format og den tone du ønsker] → [ny sides input]. Outputtet er langt mere konsistent i format, længde og tone.

One-shot, few-shot og many-shot

Zero-shot: Ingen eksempler — kun instruktion. Fungerer godt for enkle, klart definerede opgaver.

One-shot: Ét eksempel. Hjælper med format men giver modellen lidt at generalisere fra.

Few-shot (2-8 eksempler): Guldstandarden for de fleste formaterede opgaver. Nok til at modellen lærer mønstret, ikke så mange at det æder context window.

Many-shot (10+ eksempler): Relevant for nuancerede mønstre eller sjældne edge cases. Kræver stort context window.

Konstruktion af gode eksempler

Eksemplernes kvalitet er afgørende. Dårlige eksempler er værre end ingen eksempler — modellen lærer det forkerte mønster.

Diversitet: Dæk variationen i dit faktiske inputrum. Hvis du genererer meta descriptions for e-commerce, informationssider og kategoriside, inkluder eksempler af alle tre typer.

Konsistens: Alle eksempler skal følge præcis det samme format du ønsker i output. Inkonsistente eksempler giver inkonsistent output.

Repræsentativitet: Brug rigtige eksempler fra dit eget indhold frem for konstruerede — de afspejler den faktiske distribution bedre.

Few-shot vs. fine-tuning

Few-shot prompting og fine-tuning løser det samme problem: at få en model til at følge et bestemt format eller en bestemt stil. Few-shot er langt hurtigere og billigere at implementere — fine-tuning er relevant hvis du har høj volumen og vil spare context-tokens, eller hvis mønstret er for komplekst til at lære fra få eksempler.

Tommelfingerreglen: start med few-shot. Overvej fine-tuning først når few-shot konsekvent ikke er tilstrækkeligt.

Andre artikler i samme emne

Placering i ordbogen