Artikel

Fine-tuning — Hvornår du bør specialisere en AI-model

Fine-tuning træner en model videre på dine egne data. Relevant for high-volume tasks og meget specifikke outputformater — men ofte erstatteligt af god prompt engineering.

Fine-tuning er processen hvor du træner en eksisterende AI-model videre på dine egne data. Resultatet er en specialiseret version af basismodellen der er kalibreret til dine specifikke opgaver, format-krav eller tone-of-voice.

Det er et kraftfuldt men overvurderet værktøj. De fleste organisationer der overvejer fine-tuning ville opnå det ønskede resultat hurtigere og billigere med bedre prompt engineering.

Hvad fine-tuning faktisk gør

Fine-tuning ændrer modellens vægte — de milliardvis af tal der definerer dens adfærd. Du giver den par af input/output-eksempler, og modellen opdaterer sig selv til at producere output der ligner dine eksempler.

Det adskiller sig fundamentalt fra prompt engineering (du ændrer input) og RAG (du giver kontekst-dokumenter). Fine-tuning ændrer selve modellen.

Praktisk konsekvens: fine-tuned modeller er hurtigere og billigere i drift fordi du sender kortere prompts — specifikke instruktioner der ellers ville stå i en lang system prompt er nu “bagt ind” i modellen. Det er relevant ved meget høje request-volumener.

Hvornår fine-tuning giver mening

Fine-tuning er det rigtige valg i specifikke situationer:

Meget specifikt outputformat: Dit ønskede output er så specifikt at det er svært at kommunikere via prompts. Eksempel: du vil have meta titles i et meget præcist format med bestemt sætningsstruktur, tegnsætning og keyword-placering. Et par hundrede eksempler i fine-tuning-datasæt er mere effektivt end en kompleks system prompt.

Domænespecifikt sprog: Dit domæne bruger teknisk jargon der er sjælden i standard-træningsdata. Juridiske kontrakter, medicinske noter, meget specialiserede tekniske tekster. Fine-tuning på domænerelevante eksempler forbedrer kvaliteten.

Cost-optimering ved scale: Du kører hundredtusindvis af requests om måneden på en stor frontier-model. En fine-tuned GPT-4o mini kan replikere en stor del af GPT-4o’s output-kvalitet til en brøkdel af prisen.

Konsistent tone og brand voice: Hvis du har en meget specifik brand voice der konsekvent afviger fra modellens default-tone, er det lettere at fine-tune end at genspecificere i hver prompt.

Hvornår fine-tuning ikke giver mening

Fine-tuning giver ikke mening som erstatning for god prompt engineering. Før du overvejer fine-tuning, er spørgsmålet: har du faktisk testet om en godt designet system prompt med few-shot eksempler giver dig det ønskede resultat?

Svaret er hyppigere ja end de fleste tror. Det er sjældent mangel på fine-tuning der er problemet — det er mangel på præcise prompts.

Fine-tuning giver heller ikke mening som løsning på hallucination. Modellen kan fine-tunes til at følge et format bedre, men det løser ikke at den mangler faktuel viden om dit specifikke domæne. Til det er RAG den korrekte løsning.

Processen i praksis

Fine-tuning kræver:

Datasæt: Typisk 50-500 pairs af input/output-eksempler for GPT-4o mini fine-tuning via OpenAI’s platform. Kvalitet er vigtigere end kvantitet — 100 konsistente, perfekte eksempler er bedre end 1.000 rodede.

Platform: OpenAI’s platform tilbyder fine-tuning af GPT-4o mini direkte via UI eller API. Google Vertex AI understøtter fine-tuning af Gemini Pro modellerne. For open source: Hugging Face + LoRA er standard-stack til at fine-tune Llama og lignende modeller på din egen GPU.

Evaluering: After fine-tuning skal du evaluere modellen på et held-out test-sæt. Forbedrer den sig faktisk på dine target-metrics? Fine-tuning kan give regressions på andre dimensioner — evaluér bredt.

Iterering: Første fine-tuning er sjældent det endelige resultat. Det er en iterativ proces.

Open source og fine-tuning

En specifik use case for fine-tuning på open source-modeller: privacy. Hvis du processerer følsomme data (persondata, fortrolige forretningsdata) kan du fine-tune en Llama-model og køre den lokalt. Data forlader aldrig dit miljø.

LoRA (Low-Rank Adaptation) er den dominerende teknik til effektiv fine-tuning af store modeller på begrænset GPU-kapacitet. Det er muligt at fine-tune en 7B parameter model på en enkelt GPU med 24GB VRAM.

Den pragmatiske beslutning

Hierarkiet af løsninger: prøv prompt engineering først. Tilføj few-shot eksempler. Prøv RAG hvis problemet er faktuel viden. Overvej fine-tuning sidst — kun når de andre tilgange er afprøvet og ikke giver tilfredsstillende resultat, eller når scale gør cost til en reel begrænsning.

Andre artikler i samme emne

Placering i ordbogen