Google BERT — Naturlig sprogforståelse i søgning
Google BERT (2019) forbedrede Googles forståelse af naturligt sprog og konteksten i søgeforespørgsler dramatisk.
Google BERT — Naturlig sprogforståelse i søgning
Den 25. oktober 2019 offentliggjorde Google et blogindlæg med titlen “Understanding searches better than ever before”. Det er ikke en overdrivelse. BERT-opdateringen repræsenterede det største enkeltspring i Googles sprogevne siden Hummingbird i 2013 — og ifølge Google selv den mest betydningsfulde ændring i søgning i de seneste fem år.
Jeg har arbejdet med SEO siden de tidlige 2000’ere, og BERT var en af de opdateringer, der for alvor fik mig til at revurdere, hvad god indholdsoptimering egentlig handler om. Ikke fordi den ændrede de grundlæggende principper — men fordi den for første gang gav Google en ægte evne til at forstå sprog som sprog, ikke blot som en sekvens af signifikante ord.
Hvad er Google BERT?
Definition og baggrund
BERT er en forkortelse for Bidirectional Encoder Representations from Transformers. Det er en neural netværksbaseret teknik til naturlig sprogforståelse (NLP), der først blev præsenteret af Google-forskere i en akademisk artikel i oktober 2018 og åbnet som open source kort efter.
Det centrale ved BERT er det, der gemmer sig i “Bidirectional”: modellen læser tekst i begge retninger simultant. Tidligere NLP-modeller behandlede typisk tekst fra venstre mod højre (eller omvendt), hvilket betød, at betydningen af et ord altid var betinget af de ord, der kom før det. BERT kan analysere hele sætningen på én gang og dermed forstå, at et ords betydning påvirkes af alle de omgivende ord — i begge retninger.
Det er et teknisk princip med store praktiske konsekvenser: Google kan nu forstå, at “bank” i “han løb ned til flodbredden” og “bank” i “han satte pengene i banken” er to meget forskellige ting — og rangere resultater derefter.
Oktober 2019: Den største ændring i 5 år
Google aktiverede BERT i søgning i USA med engelsksprogede forespørgsler den 25. oktober 2019. I løbet af de følgende måneder rullede det ud til de fleste sprog og markeder. Dansk var inkluderet i de tidlige udrulninger.
Google estimerede, at BERT påvirkede ét ud af ti søgninger i USA på lanceringstidspunktet — det svarer til hundredvis af millioner søgninger dagligt. Det er et enormt tal, men det er vigtigt at forstå, at BERT ikke “opdaterede” alle placeringer dramatisk. For mange søgninger var ændringen subtil. For andre — særligt præpositionstunge forespørgsler — var den markant.
Et af Googles egne eksempler er forespørgslen “2019 brazil traveler to usa need a visa”. Uden BERT fokuserede Google på ordene “traveler”, “usa” og “visa” og vendte resultater om amerikanere der rejser til Brasilien. Med BERT forstår systemet, at “to usa” er afgørende for forespørgselsretningen — og viser korrekte resultater for brasilianere der vil rejse til USA.
Hvad ændrede BERT?
Fra positionsbaseret til kontekstbaseret forståelse
Forud for BERT var meget af Googles sprogforståelse baseret på, hvilke ord der optrådte i en tekst, og i nogen grad deres nærhed til hinanden. Det er det, vi kalder bag-of-words-tilgangen: en pose med ord, hvor rækkefølge og grammatisk struktur er sekundær.
BERT introducerede kontekstbaseret forståelse. Det er ikke nok at vide, at ordet “behandling” optræder — systemet forstår, at “behandling af kreft” og “behandling på et spa” er vidt forskellige emner, selv om begge sætninger deler ord med en lignende struktur.
Det er direkte forbundet til principperne bag google-hummingbird, der i 2013 introducerede en mere semantisk orienteret forståelse af forespørgsler. Hvor Hummingbird handlede om at forstå forespørgslen som helhed, gik BERT et lag dybere og forbedrede forståelsen af grammatisk kontekst og syntaks.
google-rankbrain fra 2015 var fremragende til at håndtere ukendte forespørgsler ved at matche dem med semantisk lignende forespørgsler. BERT er fremragende til at forstå præcist hvad en specifik forespørgsel grammatisk og semantisk betyder. De to systemer komplementerer hinanden.
Hvilke søgninger blev påvirket
BERT er mest effektivt ved:
- Søgninger med præpositioner og bindeord, der ændrer forespørgselsretningen fundamentalt (“medicin til hund, ikke kat”)
- Konversationelle forespørgsler formuleret i naturligt sprog
- Søgninger med negation: “symptomer på sygdom X der ikke er Y”
- Forespørgsler om subtile nuancer, hvor kontekst er afgørende
Korte, afkortede søgninger som “vejr København” eller “iPhone 16 pris” påvirkes sjældent markant — de kræver ikke dyb sproglig forståelse. Det er de lange, komplekse forespørgsler, der nyder godt af BERT, og det er præcis der, fra-keywords-til-intent-skiftet er tydeligst.
Google BERT i dag — overgået af MUM?
I 2021 introducerede Google MUM (Multitask Unified Model), der ifølge Google er 1.000 gange mere kraftfuld end BERT og i stand til at forstå og generere sprog på tværs af 75 sprog og multiple modaliteter. Med Gemini-integrationen i 2023-2024 er den sproglige kapacitet i Google Søgning rykket endnu et lag fremad.
Det er dog ikke præcist at sige, at BERT er “erstattet”. BERT kører stadig som en del af Googles søgeinfrastruktur og bidrager til forespørgselsfortolkning. De nyere systemer håndterer mere komplekse og multimodale opgaver, mens BERT fortsat spiller en rolle i den grundlæggende sproganalyse.
Én af de vigtigste konsekvenser af BERTs arv er, at vi nu ser google-ai-overviews-seo som en direkte forlængelse: fra at forstå hvad brugeren spørger om (BERT), til at generere et direkte svar (AI Overviews). Det er den samme logiske kurve.
De Google Opdateringer, der fulgte BERT, herunder core updates fra 2020 frem, tog alle udgangspunkt i, at Google nu forstod sprog markant bedre end tidligere — og at sider, der hidtil var “snuppet” gode placeringer ved hjælp af keyword-tæthed, nu stod over for et system der kunne gennemskue, at indholdet reelt ikke var relevant.
Hvad betyder BERT for din SEO?
Konkrete handlinger
Det vigtigste råd er identisk med det, BERT selv signalerer: skriv naturligt. BERT er bygget til at forstå naturligt sprog — brug det til din fordel.
Konkret:
- Optimer ikke for keywords isoleret, men for forespørgsler formuleret som rigtige sætninger
- Skriv svar på spørgsmål, ikke bare om emner
- Brug varieret ordforråd og synonymer naturligt i teksten
- Sørg for at kontekst er tydelig: hvem skriver du til, og hvad forsøger de at opnå?
- Test dine vigtigste sider mod de forespørgsler, de faktisk skal ranke på — ikke blot om dit keyword optræder, men om indholdet reelt svarer på spørgsmålet
Typiske fejl
En fejl, jeg ser regelmæssigt, er at konkludere, at “BERT-optimering” kræver særlige tekniske tiltag. Det gør det ikke. Googles eget råd var fra dag ét: “skriv godt indhold”. Det er ikke et svar, der sælger SEO-kurser, men det er det korrekte.
En anden fejl er at bruge BERT som undskyldning for ikke at tænke over struktur. BERT forbedrer forståelse — det løser ikke problemer med manglende relevans, tynd dækning af et emne eller dårlig teknisk implementering. Det er ét lag i et system med mange lag.
BERT og vejen mod AI Overviews
BERT markerede det øjeblik, Google gik fra at rangere sider baseret på tilstedeværelsen af ord til at rangere dem baseret på reel sproglig forståelse. Det er et fundamentalt skift, og dets fulde konsekvenser mærkes stadig.
Fra et søgemaskiner-perspektiv er BERT en milepæl: ikke en opdatering der straffede specifikke taktikker, men en forbedring der principielt ændrede, hvad der forstås som relevant. I de Google Opdateringer, der fulgte, var BERT-forståelsen bagt ind — og det er grunden til, at keyword-optimering alene ikke længere er tilstrækkeligt.
Ofte stillede spørgsmål om Google BERT
Hvornår blev Google BERT lanceret? Google aktiverede BERT i søgeresultaterne den 25. oktober 2019, startende med engelsksprogede søgninger i USA. Udrulningen til andre sprog og markeder, herunder dansk, fulgte i de efterfølgende måneder.
Hvad er forskellen på BERT og RankBrain? RankBrain er primært designet til at kortlægge ukendte forespørgsler ved at matche dem semantisk med kendte forespørgsler. BERT er primært designet til at forstå den grammatiske og kontekstuelle betydning af en specifik forespørgsel. De to systemer kører parallelt og komplementerer hinanden.
Skal jeg gøre noget særligt for at optimere til BERT? Nej — i hvert fald ikke i teknisk forstand. BERT er designet til at forstå naturligt skrevet indhold. Det vigtigste råd er at skrive klart og naturligt, besvare brugerens faktiske spørgsmål, og undgå keyword-stuffing som erstatning for reel relevans.
Er BERT stadig relevant i 2026? BERT kører stadig som en del af Googles søgeinfrastruktur, men dets rolle er udvidet og i nogen grad overtaget af kraftigere modeller som MUM og Gemini-baserede systemer. Det principielle skift, BERT indvarslede — fra ordbaseret til kontekstbaseret forståelse — er til gengæld mere relevant end nogensinde.
Andre artikler i samme emne
- E-E-A-T og Googles opdateringer — Kvalitetsvurderingens evolution
- Google Algoritme Rankingfaktorer — Det komplette overblik
- Google Core Update — Hvad det er og hvordan det påvirker din side
- Google Core Updates 2024 — Året med syv bekræftede opdateringer
- Google Core Updates 2025 — Tre core updates og ét spam update
- Google Core Updates 2026 — De seneste opdateringer
- Google Discover Update — Algoritmeændringer i feedet
- Google Helpful Content Update — Menneske-først-indhold
- Google Hummingbird — Semantisk søgning ændrer alt
- Google Link Spam Update — SpamBrain mod linkmanipulation
- Google Medic Update — E-A-T og YMYL-siders skæbne
- Google Mobilegeddon — Mobilvenlighedens æra begynder
- Google Opdatering Recovery — Genvind dine rankings
- Google Page Experience Update — UX som rankingfaktor
- Google Panda — Opdateringen der ændrede content-kvalitet for altid
- Google Penguin — Opgøret med manipulerende linkbuilding
- Google Pigeon — Lokale søgeresultater transformeret
- Google Product Reviews Update — Krav til anmeldelsesindhold
- Google RankBrain — Machine learning i søgeresultaterne
- Google Sandbox-effekten — Myte eller virkelighed?
- Google Search Console og opdateringer — Analysér effekten
- Google Spam Update — SpamBrain og bekæmpelse af spam