Artikel

Kontekstvindue — Hvad context window er og hvad det betyder

Context window er modellens kortidshukommelse — målt i tokens. Claude har 200k, GPT-4o 128k, Gemini Pro op til 1M tokens.

Context window er en af de mest konkrete tekniske parametre du bør kende når du vælger model til en given opgave. Det er mængden af tekst — målt i tokens — som modellen aktivt kan “huske” og referere til i løbet af en session.

Det der ikke er i context window, eksisterer ikke for modellen. Den kan ikke huske hvad der skete i en tidligere session medmindre du sender det som kontekst igen. Den kan ikke huske hvad du sagde i starten af en lang samtale hvis du er løbet tør for context-kapacitet.

Context window i tal — de tre store modeller

ModelContext windowTilnærmet ord-ækvivalent
Gemini 1.5 Pro1.000.000 tokens~750.000 ord
Claude (Sonnet/Opus)200.000 tokens~150.000 ord
GPT-4o128.000 tokens~96.000 ord
Claude Haiku200.000 tokens~150.000 ord
GPT-4o mini128.000 tokens~96.000 ord

150.000 ord svarer til en mellemlang roman. 200k tokens er tilstrækkeligt til langt de fleste realistiske SEO-use cases.

Hvad du kan sende med 200k tokens

I praksis lader Claudes 200k token-grænse dig sende:

  • Et komplet website-crawl med 1.500-2.000 URLs og metadata
  • Et fuldt søgeordsdatasæt fra et nichemarked med rangeringsdata
  • Et softwarerepository med hundredevis af filer
  • En konkurrent-analyse med alle konkurrenters vigtigste sider

Den mest praktiske konsekvens: du slipper for chunking. Chunking er processen hvor du opdeler et stort dokument i stykker og processer dem separat. Det fungerer, men introducerer risiko for at miste sammenhæng og kræver downstream-logik til at sammensætte delresultater. Med 200k tokens undgår du det i de fleste realistiske SEO-scenarier.

Hvornår 128k vs. 200k gør en forskel

For de fleste daglige opgaver er forskellen irrelevant — de er begge store. Det bliver relevant:

Komplet site-analyse: Hvis du sender et crawl-datasæt for et medium-large site (5.000+ sider i CSV) til analyse. Her rammer du sandsynligvis GPT-4o’s grænse men ikke Claudes.

Long-form dokumentanalyse: Juridiske dokumenter, tekniske specifikationer, lange rapport-archives. Sjælden SEO-use case men relevant i content audit-kontekster.

Agentic workflows med kumulativ kontekst: Når en agent kører multi-step analyser og akkumulerer resultater i context, vokser context-bruget hurtigt. Større context window giver mere rum til agenten at operere.

Geminis 1 million token window

Gemini 1.5 Pro’s 1 million token context window er et genuint spring. Det åbner use cases der ikke er mulige med 200k: analyse af et helt år med log-filer, et komplet produkt-katalog med beskrivelser til alle 50.000 SKUs, et multi-år arkiv af content.

I praksis er der to begrænsninger: 1) “lost in the middle”-problemet — forskning viser at LLM’er præsterer dårligere på information der sidder midt i en meget lang kontekst. 2) Pris og latency — processering af 1M tokens er markant dyrere og langsommere.

For de fleste SEO-teams er 200k tokens tilstrækkeligt. Geminis 1M window er relevant for meget specifikke large-scale use cases.

Context window vs. faktisk “hukommelse”

En vigtig nuancering: stort context window ≠ perfekt hukommelse. Forskning viser konsekvent at LLM’er er bedst til at bruge information der sidder tidligt eller sent i kontekst — information midt i en meget lang kontekst hentes med lavere pålidelighed.

Det praktiske råd: placer den vigtigste information (core-instruktioner, primære data) i starten af din prompt, ikke midt i et langt dokument. Det er kontraintuitivt men empirisk underbygget.

Context window og agentiske workflows

I agentic workflows akkumulerer kontekst hurtigt: system prompt + tool definitions + tool call results + mellems-resultater + historik. Et agent-workflow der kører 10-15 trin kan nå 50-80k tokens i kumulativ kontekst. Med 200k er der god buffer. Med 128k er du nødt til at være mere bevidst om context management.

Claude Code håndterer dette automatisk i de fleste tilfælde — men det er nyttigt at forstå mekanismen bag. → Denne artikel er en del af Sprogmodeller og LLM’er — Hvad de er og hvordan de virker.

Andre artikler i samme emne

Ofte stillede spørgsmål

Hvad er et kontekstvindue (context window) i en LLM?
Context window er mængden af tekst — målt i tokens — som en AI-model aktivt kan 'huske' og referere til i løbet af en session. Det der ikke er i context window, eksisterer ikke for modellen: den kan ikke huske tidligere sessioner og kan ikke huske hvad der skete tidligt i en lang samtale hvis context-kapaciteten er opbrugt. Claude har 200.000 tokens (ca. 150.000 ord), GPT-4o har 128.000 tokens og Gemini 1.5 Pro op til 1 million tokens.
Hvornår er størrelsen på context window afgørende?
For de fleste daglige opgaver er forskellen mellem 128k og 200k tokens irrelevant. Context window-størrelse bliver afgørende ved: komplet site-analyse med store crawl-datasæt, long-form dokumentanalyse af juridiske eller tekniske specifikationer, og agentic workflows der akkumulerer kontekst over mange trin. Et agent-workflow der kører 10-15 trin kan nå 50-80k tokens i kumulativ kontekst — med 200k er der god buffer.
Er et stort context window det samme som god hukommelse?
Nej — stort context window er ikke det samme som perfekt hukommelse. Forskning viser konsekvent at LLM'er præsterer dårligere på information der sidder midt i en meget lang kontekst, det såkaldte 'lost in the middle'-problem. De er bedst til at bruge information der sidder tidligt eller sent i konteksten. Det praktiske råd: placer de vigtigste instruktioner og data i starten af din prompt, ikke midt i lange dokumenter.
Hvad sker der når context window er opbrugt?
Når context window er opbrugt, kan modellen ikke modtage mere input i den session — API-kaldet fejler eller afskærer input. I chat-interfaces som Claude.ai og ChatGPT håndteres dette via automatisk summarering af ældre dele af samtalen, men med tab af præcision. I API-workflows er det dit ansvar at styre context-bruget: monitorér token-count i API-responsen, implementér context-management-logik i lange agentic workflows, og chunke store datasæt hvis de overstiger grænsen.
Er Geminis 1 million tokens context window relevant for SEO-praktikere?
For de fleste SEO-praktikere og bureauer er svaret nej — Claudes 200k tokens er tilstrækkeligt til langt de fleste realistiske workflows. Geminis 1M (og op til 2M i Gemini 2.0) er relevant i specifikke large-scale use cases: analyse af et komplet år med log-filer, behandling af produktkataloger med over 50.000 SKU-beskrivelser, og analyse af hele video-optagelser. For standard SEO-analyser, keyword-research og content-audits er det store Gemini-context window ikke en praktisk begrænsning.

Placering i ordbogen