Artikel

Fine-tuning — Hvornår du bør specialisere en AI-model

Fine-tuning træner en model videre på dine egne data. Relevant for high-volume tasks og meget specifikke outputformater — men ofte erstatteligt af god prompt engineering.

Fine-tuning er processen hvor du træner en eksisterende AI-model videre på dine egne data og producerer en specialiseret version af basismodellen kalibreret til dine specifikke opgaver, format-krav eller tone-of-voice. Det er en teknik der er relevant for SEO-teams med høje request-volumener og meget præcise outputkrav — men som konsekvent overvejes for tidligt i stedet for prompt engineering.

Det er et kraftfuldt men overvurderet værktøj. De fleste organisationer der overvejer fine-tuning ville opnå det ønskede resultat hurtigere og billigere med bedre prompt engineering.

Hvad fine-tuning faktisk gør

Fine-tuning ændrer modellens vægte — de milliardvis af tal der definerer dens adfærd. Du giver den par af input/output-eksempler, og modellen opdaterer sig selv til at producere output der ligner dine eksempler.

Det adskiller sig fundamentalt fra prompt engineering (du ændrer input) og RAG (du giver kontekst-dokumenter). Fine-tuning ændrer selve modellen.

Praktisk konsekvens: fine-tuned modeller er hurtigere og billigere i drift fordi du sender kortere prompts — specifikke instruktioner der ellers ville stå i en lang system prompt er nu “bagt ind” i modellen. Det er relevant ved meget høje request-volumener.

Hvornår fine-tuning giver mening

Fine-tuning er det rigtige valg i specifikke situationer:

Meget specifikt outputformat: Dit ønskede output er så specifikt at det er svært at kommunikere via prompts. Eksempel: du vil have meta titles i et meget præcist format med bestemt sætningsstruktur, tegnsætning og keyword-placering. Et par hundrede eksempler i fine-tuning-datasæt er mere effektivt end en kompleks system prompt.

Domænespecifikt sprog: Dit domæne bruger teknisk jargon der er sjælden i standard-træningsdata. Juridiske kontrakter, medicinske noter, meget specialiserede tekniske tekster. Fine-tuning på domænerelevante eksempler forbedrer kvaliteten.

Cost-optimering ved scale: Du kører hundredtusindvis af requests om måneden på en stor frontier-model. En fine-tuned GPT-4o mini kan replikere en stor del af GPT-4o’s output-kvalitet til en brøkdel af prisen.

Konsistent tone og brand voice: Hvis du har en meget specifik brand voice der konsekvent afviger fra modellens default-tone, er det lettere at fine-tune end at genspecificere i hver prompt.

Hvornår fine-tuning ikke giver mening

Fine-tuning giver ikke mening som erstatning for god prompt engineering. Før du overvejer fine-tuning, er spørgsmålet: har du faktisk testet om en godt designet system prompt med few-shot eksempler giver dig det ønskede resultat?

Svaret er hyppigere ja end de fleste tror. Det er sjældent mangel på fine-tuning der er problemet — det er mangel på præcise prompts.

Fine-tuning giver heller ikke mening som løsning på hallucination. Modellen kan fine-tunes til at følge et format bedre, men det løser ikke at den mangler faktuel viden om dit specifikke domæne. Til det er RAG den korrekte løsning.

Processen i praksis

Fine-tuning kræver:

Datasæt: Typisk 50-500 pairs af input/output-eksempler for GPT-4o mini fine-tuning via OpenAI’s platform. Kvalitet er vigtigere end kvantitet — 100 konsistente, perfekte eksempler er bedre end 1.000 rodede.

Platform: OpenAI’s platform tilbyder fine-tuning af GPT-4o mini direkte via UI eller API. Google Vertex AI understøtter fine-tuning af Gemini Pro modellerne. For open source: Hugging Face + LoRA er standard-stack til at fine-tune Llama og lignende modeller på din egen GPU.

Evaluering: After fine-tuning skal du evaluere modellen på et held-out test-sæt. Forbedrer den sig faktisk på dine target-metrics? Fine-tuning kan give regressions på andre dimensioner — evaluér bredt.

Iterering: Første fine-tuning er sjældent det endelige resultat. Det er en iterativ proces.

Open source og fine-tuning

En specifik use case for fine-tuning på open source-modeller: privacy. Hvis du processerer følsomme data (persondata, fortrolige forretningsdata) kan du fine-tune en Llama-model og køre den lokalt. Data forlader aldrig dit miljø.

LoRA (Low-Rank Adaptation) er den dominerende teknik til effektiv fine-tuning af store modeller på begrænset GPU-kapacitet. Det er muligt at fine-tune en 7B parameter model på en enkelt GPU med 24GB VRAM.

Den pragmatiske beslutning

Hierarkiet af løsninger: prøv prompt engineering først. Tilføj few-shot eksempler. Prøv RAG hvis problemet er faktuel viden. Overvej fine-tuning sidst — kun når de andre tilgange er afprøvet og ikke giver tilfredsstillende resultat, eller når scale gør cost til en reel begrænsning. → Denne artikel er en del af Sprogmodeller og LLM’er — Hvad de er og hvordan de virker.

Andre artikler i samme emne

Ofte stillede spørgsmål

Hvad er fine-tuning af en LLM?
Fine-tuning er processen hvor du træner en eksisterende AI-model videre på dine egne data. Du giver modellen par af input/output-eksempler, og modellen opdaterer sine vægte til at producere output der ligner dine eksempler. Det adskiller sig fra prompt engineering (du ændrer input) og RAG (du giver kontekst-dokumenter) — fine-tuning ændrer selve modellen permanent.
Hvornår giver fine-tuning mening frem for prompt engineering?
Fine-tuning giver mening i fire situationer: dit ønskede outputformat er så specifikt at det er svært at kommunikere via prompts, dit domæne bruger jargon der er sjælden i standardtræningsdata, du kører hundredtusindvis af requests om måneden og vil reducere omkostninger ved kortere prompts, eller du har en meget specifik brand voice der konsekvent afviger fra modellens default. Vigtigst: test altid om god prompt engineering med few-shot eksempler er tilstrækkelig — det er det hyppigere end man tror.
Hvad er forskellen på fine-tuning og RAG?
Fine-tuning ændrer modellens vægte og er en statisk løsning — modellen kender ikke til data fra efter træningen. RAG (Retrieval-Augmented Generation) henter relevante dokumenter dynamisk og injicerer dem som kontekst i prompten. RAG opdateres øjeblikkeligt når du tilføjer nyt indhold til vidensbasen, mens fine-tuning kræver gentrænning. Til faktabaserede use cases og løbende opdateret information er RAG den rigtige løsning; fine-tuning er bedre til at indlære stil, format og domænespecifik terminologi.
Hvad koster fine-tuning i praksis og hvornår er det rentabelt?
OpenAI fine-tuning af GPT-4o mini koster ca. $0,003 per 1.000 training tokens — et datasæt med 500 eksempler á 500 tokens koster under $1 at fine-tune. Driftsomkostningerne er vigtigere: en fine-tuned model med en kortere system prompt kan reducere de løbende token-omkostninger med 30-60% ved høj volumen. Fine-tuning er rentabelt når du kører 100.000+ requests per måned, og din standard system prompt er 1.000+ tokens. Under det niveau er besparelsen for lille til at opveje den initiale investering i at bygge og vedligeholde et kvalitetsdatasæt.
Hvad er LoRA og hvornår er det relevant for SEO-teams?
LoRA (Low-Rank Adaptation) er en teknik til at fine-tune store open source-modeller effektivt ved kun at træne et lille sæt ekstra parametre frem for hele modellen. Det gør det muligt at fine-tune Llama 3, Mistral og lignende modeller på en enkelt GPU. For SEO-bureauer er LoRA relevant i ét specifikt scenarie: behandling af klient-data der ikke må forlade dit eget miljø. En LoRA-fine-tunet Llama-model kørt lokalt giver GDPR-compliance uden cloud-afhængighed. For alle andre use cases er OpenAI eller Anthropics hosted fine-tuning enklere og hurtigere.

Placering i ordbogen