Fra AltaVista til Perplexity: Søgningens 30 år på 5 minutter

Fra AltaVista til Perplexity: Søgningens 30 år på 5 minutter

1994 var første gang, du kunne søge på nettet. 2026 er første gang, nettet svarer tilbage.

Det er ikke en lille forskel. Det er en fundamental ændring i, hvad en søgemaskine overhovedet er. Fra et register over dokumenter til et system, der forsøger at forstå hvad du mener — og besvare det direkte.

Her er den korte version af de 30 år, der bragte os hertil.

Fase 1 (1994–1998): Tekstmatchere i kaos

De første søgemaskiner var glorificerede registre.

WebCrawler blev lanceret i april 1994 og var den første søgemaskine, der indekserede hele websider — ikke bare titler. Men det var AltaVista, der fra 1995 satte standarden for, hvad en søgemaskine kunne gøre.

AltaVista var imponerende for sin tid: fuld tekst-indexering, boolsk søgning, understøttelse af store og små bogstaver. I 1997 indekserede AltaVista over 100 millioner websider — og det var dengang en bedrift uden sidestykke.

Men alle disse tidlige søgemaskiner delte det samme grundproblem: de rankererde primært på keyword-frekvens. Hvem der gentog søgeordet flest gange, kom øverst. Resultatet var en epidemi af keyword stuffing og pre-Google søgemaskiner der simpelthen ikke forstod, hvornår et dokument var relevant.

Excite, Lycos, Infoseek og AltaVista konkurrerede hårdt. Men ingen af dem løste det grundlæggende problem: kvalitetssignalet manglede. Populær og troværdig information og spam så ens ud for algoritmen.

Se den fulde kontekst i søgemaskinernes historie.

I september 1998 lancerede Larry Page og Sergey Brin Google. Deres nøgleindsigt: links er stemmer.

PageRank — opkaldt efter Larry Page, ikke “webpage” — var idéen om, at et link fra en anden hjemmeside er et signal om troværdighed. Og ikke alle links er ens: et link fra en autoritær kilde tæller mere end et fra en ukendt side.

Det lyder indlysende i dag. I 1998 var det en revolution.

Googles tidlige år var præget af eksplosiv vækst. Inden for få år overgik Google AltaVista i brugstal og satte dermed standarden for, hvad en søgemaskine skulle gøre. Microsoft, Yahoo og andre forsøgte at indhente, men Googles kombination af ren brugerflade, hurtig indeksering og link-baseret ranking var svær at kopiere.

I løbet af 00’erne intensiverede SEO-branchen sig. Sider byggede links systematisk, link exchanges opstod, og Google begyndte den løbende kamp mod manipulation, der stadig pågår.

Men frem til ca. 2012 var søgemaskinens grundlæggende model den samme: crawler finder sider → algoritme ranker på keywords + links → bruger ser liste af 10 blå links.

Fase 3 (2012–2020): Fra keywords til intent

Det næste skift handlede ikke om links — det handlede om sprogets logik.

Google indså, at keywords er utilstrækkelige som signal. Søgeord er ikke det samme som intention. “Pizzeria” kan betyde “find en pizzeria tæt på mig” — ikke “vis mig artikler om pizzaretter”.

Hummingbird (2013) var det første store svar: en komplet rewrite af Googles søkealgoritme, der fokuserede på at forstå sætningers mening — ikke bare ord for ord.

RankBrain (2015) tilføjede maskinlæring til ligningen. Google kunne nu håndtere forespørgsler, den aldrig havde set før, ved at sammenligne dem med mønstre fra kendte søgninger.

BERT (2019) — Bidirectional Encoder Representations from Transformers — var det foreløbige højdepunkt. Google kunne nu forstå kontekst i sætninger i begge retninger. Et lille ord som “til” kan ændre hele meningen: “fly fra New York til London” og “fly fra New York til” er fundamentalt forskellige forespørgsler.

Fra keywords til intent er ikke bare en teknisk opdatering — det er en fundamental ændring i, hvordan søgning fungerer. SEO gik fra at handle om at placere søgeord rigtigt til at handle om at skabe indhold, der faktisk besvarer et behov.

Fase 4 (2020–2026): AI overtager

Og så kom sprogmodellerne.

ChatGPT (november 2022) var ikke en søgemaskine. Men den viste massivt, hvad der var muligt: et system, der besvarer spørgsmål direkte i stedet for at pege på dokumenter. Det ændrede brugernes forventninger fra dag ét.

Google reagerede med AI Overviews (tidligere SGE), der fra 2024 begyndte at generere direkte svar øverst i søgeresultaterne. Perplexity AI voksede til millioner af daglige brugere med en model, der kombinerer live-søgning med sprogmodel-genererede svar.

LLM og SEO er i 2026 ikke længere et fremtidsemne — det er den aktuelle virkelighed. AI-søgesystemer trækker på indhold fra nettet, men komprimerer det til direkte svar. Det rejser grundlæggende spørgsmål om, hvad SEO er, når brugeren aldrig klikker.

ChatGPT Search, Perplexity, Google AI Overviews og Microsoft Copilot konkurrerer nu om at levere det, der en gang krævede klik: et direkte svar.

Det lyder som AltaVista-modellen vendt på hovedet. Dengang var problemet, at søgemaskinen ikke forstod, hvad du mente. Nu forstår den det — og den besvarer det selv.

Hvad det betyder for SEO

Søgemaskiner er ikke blevet smartere. De er blevet bedre til at forstå mennesker.

Den linje lyder fin, men den har konkrete konsekvenser:

  • Indhold, der besvarer et spørgsmål præcist, er mere værdifuldt end indhold, der bare nævner et søgeord mange gange
  • Autoritet og troværdighed vægtes tungere end nogensinde — EEAT er ikke nyt, men det er mere afgørende nu
  • Direkte svar fra AI reducerer klik til “informational” søgninger — men øger værdien af de klik, der stadig sker
  • Brandgenkendelse er en ny SEO-faktor: AI-systemer trækker oftere på sources, der er kendte og citerede

Den grundlæggende indsigt fra 1998 holder stadig: kvalitet slår manipulation, og autoritet slår spam. Det var sandt da PageRank blev opfundet. Det er sandt, nu AI besvarer spørgsmålene.

De næste 10 år bliver mindst lige så turbulente som de seneste 30. Men retningen er klar: søgning bevæger sig fra dokumentfinding til vidensbesvarelse. Det er dit indhold stadig nødt til at leve op til — uanset hvilken model der præsenterer det.