Artikel

Kontekstvindue — Hvad context window er og hvad det betyder

Context window er modellens kortidshukommelse — målt i tokens. Claude har 200k, GPT-4o 128k, Gemini Pro op til 1M tokens.

Context window er en af de mest konkrete tekniske parametre du bør kende når du vælger model til en given opgave. Det er mængden af tekst — målt i tokens — som modellen aktivt kan “huske” og referere til i løbet af en session.

Det der ikke er i context window, eksisterer ikke for modellen. Den kan ikke huske hvad der skete i en tidligere session medmindre du sender det som kontekst igen. Den kan ikke huske hvad du sagde i starten af en lang samtale hvis du er løbet tør for context-kapacitet.

Context window i tal — de tre store modeller

ModelContext windowTilnærmet ord-ækvivalent
Gemini 1.5 Pro1.000.000 tokens~750.000 ord
Claude (Sonnet/Opus)200.000 tokens~150.000 ord
GPT-4o128.000 tokens~96.000 ord
Claude Haiku200.000 tokens~150.000 ord
GPT-4o mini128.000 tokens~96.000 ord

150.000 ord svarer til en mellemlang roman. 200k tokens er tilstrækkeligt til langt de fleste realistiske SEO-use cases.

Hvad du kan sende med 200k tokens

I praksis lader Claudes 200k token-grænse dig sende:

  • Et komplet website-crawl med 1.500-2.000 URLs og metadata
  • Et fuldt søgeordsdatasæt fra et nichemarked med rangeringsdata
  • Et softwarerepository med hundredevis af filer
  • En konkurrent-analyse med alle konkurrenters vigtigste sider

Den mest praktiske konsekvens: du slipper for chunking. Chunking er processen hvor du opdeler et stort dokument i stykker og processer dem separat. Det fungerer, men introducerer risiko for at miste sammenhæng og kræver downstream-logik til at sammensætte delresultater. Med 200k tokens undgår du det i de fleste realistiske SEO-scenarier.

Hvornår 128k vs. 200k gør en forskel

For de fleste daglige opgaver er forskellen irrelevant — de er begge store. Det bliver relevant:

Komplet site-analyse: Hvis du sender et crawl-datasæt for et medium-large site (5.000+ sider i CSV) til analyse. Her rammer du sandsynligvis GPT-4o’s grænse men ikke Claudes.

Long-form dokumentanalyse: Juridiske dokumenter, tekniske specifikationer, lange rapport-archives. Sjælden SEO-use case men relevant i content audit-kontekster.

Agentic workflows med kumulativ kontekst: Når en agent kører multi-step analyser og akkumulerer resultater i context, vokser context-bruget hurtigt. Større context window giver mere rum til agenten at operere.

Geminis 1 million token window

Gemini 1.5 Pro’s 1 million token context window er et genuint spring. Det åbner use cases der ikke er mulige med 200k: analyse af et helt år med log-filer, et komplet produkt-katalog med beskrivelser til alle 50.000 SKUs, et multi-år arkiv af content.

I praksis er der to begrænsninger: 1) “lost in the middle”-problemet — forskning viser at LLM’er præsterer dårligere på information der sidder midt i en meget lang kontekst. 2) Pris og latency — processering af 1M tokens er markant dyrere og langsommere.

For de fleste SEO-teams er 200k tokens tilstrækkeligt. Geminis 1M window er relevant for meget specifikke large-scale use cases.

Context window vs. faktisk “hukommelse”

En vigtig nuancering: stort context window ≠ perfekt hukommelse. Forskning viser konsekvent at LLM’er er bedst til at bruge information der sidder tidligt eller sent i kontekst — information midt i en meget lang kontekst hentes med lavere pålidelighed.

Det praktiske råd: placer den vigtigste information (core-instruktioner, primære data) i starten af din prompt, ikke midt i et langt dokument. Det er kontraintuitivt men empirisk underbygget.

Context window og agentiske workflows

I agentic workflows akkumulerer kontekst hurtigt: system prompt + tool definitions + tool call results + mellems-resultater + historik. Et agent-workflow der kører 10-15 trin kan nå 50-80k tokens i kumulativ kontekst. Med 200k er der god buffer. Med 128k er du nødt til at være mere bevidst om context management.

Claude Code håndterer dette automatisk i de fleste tilfælde — men det er nyttigt at forstå mekanismen bag.

Andre artikler i samme emne

Placering i ordbogen