Hvad Google Spam Update faktisk kigger efter — og hvad det ikke gør

Hvad Google Spam Update faktisk kigger efter — og hvad det ikke gør

Google Spam Update January 2026 er rullet ud. Og som altid er der en strøm af reaktioner fra folk, der er overbevist om, at de er ramt af spam-straf — selvom de aldrig har lavet spam i deres liv.

Problemet er en udbredt forvirring: Spam Update og Helpful Content Update er ikke det samme. De rammer ikke de samme sider. De har ikke de samme årsager. Og de kræver ikke de samme løsninger.

Den forvirring koster folk unødvendige timer med forkert recovery-arbejde.

Hvad Google definerer som spam

Google Spam Update er rettet mod sider, der aktivt overtræder Googles spam-politikker. Det er ikke et vurderingsspørgsmål om, om dit indhold er godt nok — det er en binær vurdering af, om du bryder reglerne.

Googles egne spam-politikker definerer konkrete kategorier:

Cloaking er at vise crawlerne noget andet end brugerne. Det er en af de ældste spam-teknikker i bogen, og en af dem Google straffer hårdest. Serverer du ét HTML-respons til Googlebot og et andet til mennesker, er det cloaking.

Doorway pages er sider skabt udelukkende for at fange søgetrafik og sende brugeren videre til en anden destination. Masseproducerede lokationssider (“rørlegger kobenhavn”, “rørlegger frederiksberg” osv.) med identisk indhold og ingen reel lokal substans er et typisk eksempel.

Parasite SEO — at publicere indhold på høj-autoritet domæner man ikke ejer, typisk subdomæner, kategorisider eller studentportaler, for at udnytte domænets autoritet — er specifikt nævnt i Googles retningslinjer som misbrug.

Scaled content abuse er det nye navn for det, der tidligere hed “automatically generated content”. Det dækker masseproduktion af sider designet til at manipulere rankings — uanset om de er skrevet af mennesker eller AI. Nøgleordet er designet til at manipulere, ikke bare produceret i mængde.

Expired domain abuse er at købe udløbne domæner med eksisterende autoritet og fylde dem med irrelevant indhold for at udnytte linkprofilen. Google er blevet markant bedre til at detektere dette mønster.

SpamBrain: Googles AI-baserede spamfilter

SpamBrain er Googles interne AI-system til spamdetektering. Det er ikke en manuel proces — det er et maskinlæringssystem, der kontinuerligt evaluerer sider og linkprofiler.

Hvad SpamBrain faktisk kigger på:

  • Unatural link patterns: Pludselige store link-spikes, unaturlige ankertekstfordelinger, links fra domæner med ingen organisk trafik
  • Indholdsmønstre på tværs af domæner: SpamBrain er i stand til at genkende skabelon-baseret spam, selv når det er spredt over mange domæner
  • Sidestrukturer designet til crawlere fremfor brugere: Sider med unaturlig keyword-densitet, spammy intern linking og indhold struktureret til bots

Det vigtige at forstå: SpamBrain er et filter, ikke en straf-mekanisme i sig selv. Mange af de links, det detekterer som spam, bliver simpelthen neutraliseret — de tæller ikke, men de medfører ikke nødvendigvis en manuel straf.

Hvad Spam Update ikke er

Her er den pointe, der mangler i de fleste analyser.

Spam Update er ikke en content quality-update. Hvis dit indhold er tyndt, generisk, over-optimeret eller lavt i E-E-A-T, men ikke aktivt bryder Googles spam-politikker, er du ikke ramt af Spam Update.

Det, du måske er ramt af, er Helpful Content Update — eller en bredere core update.

Google Helpful Content Update handler om, hvorvidt dit indhold primært er skabt til mennesker eller til søgemaskiner. Det er et kvalitetssignal, ikke et spam-signal. Og recovery fra HCU kræver en fundamentalt anden tilgang end recovery fra spam.

Hvis du bruger tid på at fjerne noindex-tags, rette canonical tags eller gennemgå dine robots-direktiver fordi du tror, du er ramt af spam — mens det reelle problem er indholdsrelevans — spilder du din tid.

Grænsetilfældet: AI-genereret indhold

Det er her, tingene bliver nuancerede.

Google har sagt eksplicit, at AI-genereret indhold ikke automatisk er spam. Hvad der er spam, er AI-genereret indhold produceret i stor skala med det primære formål at manipulere søgeresultater — altså scaled content abuse.

AI content detection er et aktivt udviklingsområde hos Google. SpamBrain er blandt andet trænet til at identificere mønstre der indikerer masseproduktion — ikke nødvendigvis AI-skrivning per se, men den type output der typisk kendetegner scaled content: ensartede strukturer, generiske formuleringer, ingen reel ekspertise eller originalitet.

Et blogindlæg skrevet delvist med AI, der indeholder genuine indsigter, reel erfaring og er rettet mod et faktisk bruger-spørgsmål, er ikke spam. Tusinde sider produceret med en AI-pipeline med det formål at dække alle variationer af et søgeord, er sandsynligvis scaled content abuse.

Linjen er ikke “er det skrevet af AI?” — linjen er “er det produceret for at manipulere søgeresultater?”

Hvad du gør, hvis du er ramt

Det første du skal gøre er at skelne mellem to fundamentalt forskellige scenarier:

Manuel straf (manual action): Tjek Google Search Console under “Manuelle handlinger”. Har du en manual action, ved du præcis, hvad problemet er. Google fortæller dig det. Her er recovery-processen veldefineret: ret problemet, indsend reconsideration request.

Algoritmisk nedgang: Ingen manual action i GSC, men tydelig trafiknedgang sammenfaldende med en Spam Update-udrulning. Det er sværere. Her skal du evaluere din side mod Googles spam-politikker og identificere, hvad der potentielt udløser SpamBrain — men du kan ikke “sende en klage”. Recovery sker ved at fjerne det problematiske, ikke ved at ansøge.

Tjek også din Google E-E-A-T profil: hvem er forfatterne? Er der klare signaler på ekspertise og troværdighed? Spam-sider har typisk meget svage E-E-A-T-signaler — selvom E-E-A-T primært er et HCU-signal, er de to systemer ikke helt uafhængige.

Kend forskellen før du laver din recovery-plan

Det er den egentlige konklusion her.

Spam Update og Helpful Content Update rammer sider af meget forskellige årsager, og de kræver meget forskellig behandling.

Er du ramt af spam: Fjern det der bryder politikkerne. Cloaking, doorway pages, manipulative link schemes. Indsend reconsideration request hvis du har en manual action.

Er du ramt af HCU: Evaluer dit indhold mod det primære spørgsmål — er det lavet til mennesker? Er der reel substans? Er forfatterskabet troværdigt? Det er et langsommere og mere nuanceret arbejde.

Er du usikker på hvilken du er ramt af: Start med GSC. Ingen manual action + trafiknedgang = sandsynligvis algoritmisk. Sammenlign tidspunktet på din nedgang med de faktiske dato for Spam Update-udrulninger kontra HCU-udrulninger — de er ikke de samme dage.

Det lyder simpelt. Men det er den fejl, jeg ser oftest: folk laver HCU-recovery på et spam-problem, eller spam-recovery på et HCU-problem. Begge er spild af tid.

Forstå hvad der ramte dig, før du beslutter hvad du gør ved det.