Artikel

Noindex — Sådan holder du sider ude af Googles indeks

Noindex holder sider ude af Googles søgeresultater — brugt korrekt er det et effektivt redskab til at styre hvad der indekseres.

Ikke alle sider på dit website skal vises i Google. Tak-sider efter formularindsendelse, interne søgeresultater, stagingmiljøer, tynde kategorisider — indholdet eksisterer af gode grunde, men hører ikke hjemme i søgeresultaterne.

Noindex er løsningen.


Hvad er noindex?

Noindex er et robots-direktiv, der instruerer søgemaskiner om ikke at indeksere en bestemt side. En side med noindex:

  • Kan stadig crawles af Googlebot
  • Vil ikke vises i søgeresultaterne
  • Mister sin plads i Google’s indeks (eller fjernes fra det, hvis den var indekseret)

Noindex er en side-niveau instruktion — i modsætning til robots.txt, der opererer på URL-niveau og blokerer crawling, ikke indeksering.


To implementeringsmetoder

1. Meta robots tag (HTML)

Den mest brugte metode — placeres i <head>-sektionen:

<meta name="robots" content="noindex">
<meta name="robots" content="noindex, nofollow">
<meta name="robots" content="noindex, follow">

Standardværdien for follow er follow, så noindex alene er tilstrækkeligt, hvis du ønsker at Googlebot stadig følger links på siden.

2. X-Robots-Tag (HTTP header)

X-Robots-Tag sættes i serverens HTTP-svar-header — nyttigt til ikke-HTML-ressourcer som PDF-filer:

X-Robots-Tag: noindex
X-Robots-Tag: noindex, nofollow

Kan konfigureres i .htaccess (Apache), nginx.conf eller via CMS-plugin. Effekten er identisk med meta robots.


Hvornår skal du bruge noindex?

Tak-sider og bekræftelsessider Sider som /tak-for-din-besked/ eller /ordre-bekraeftet/ har ingen søgeværdi og bør holdes ude af indekset.

Interne søgeresultater Sider som /soeg/?q=... skaber duplicate content og tyndt indhold. Noindex er standard-løsningen.

Stagingmiljøer og testversioner Sørg for at staging-miljøet (fx staging.eksempel.dk) er noindexed — og helst beskyttet med password.

Tynde og duplicate kategorisider Paginerede kategorisider med 2-3 produkter, filtrerings-URLs med begrænset indhold, eller sider der nærmest duplikerer andre sider.

Brugerprofiler og interne kontooplysninger Loginbeskyttede sider crawles sjældent, men noindex er et ekstra sikkerhedsnet.


Den kritiske forskel: noindex vs robots.txt

Dette er den hyppigste fejl i teknisk SEO:

NoindexRobots.txt disallow
Blokerer crawlingNej — siden crawles stadigJa — Googlebot besøger ikke siden
Blokerer indekseringJaNej — siden KAN stadig indekseres
Googlebot læser direktivetJa — Googlebot skal crawle siden for at se noindexNej — Googlebot læser ikke sidens kode

Den farligste kombination: Disallow i robots.txt + noindex i HTML.

Hvis Googlebot er blokeret fra at crawle siden, ser den aldrig noindex-direktivet. Resultatet: siden kan indekseres alligevel — typisk fordi andre sites linker til den. Brug enten robots.txt ELLER noindex, aldrig begge på samme side til samme formål.


Noindex og crawl budget

Sider med noindex crawles stadig af Googlebot og bruger dermed crawl budget. På meget store sites med mange noindexed sider kan det være en udfordring.

Løsning: Overvej om noindexed sider alligevel skal crawles (f.eks. for at sikre links følges), eller om de skal blokeres via robots.txt med forbehold for ovenstående.


Ofte stillede spørgsmål

Hvad sker der med eksisterende ranking, når jeg sætter noindex? Siden fjernes fra Google’s indeks ved næste crawl — typisk inden for dage til uger. Al ranking og trafik forsvinder.

Kan noindex bruges midlertidigt? Ja. Noindex kan fjernes igen, og siden vil blive indekseret ved næste crawl. Brugt til midlertidig kontrol, f.eks. under indholdsopdatering.

Kan jeg tjekke om en side er noindexed? Ja — brug URL Inspection Tool i Google Search Console for at se, hvad Google faktisk ser på en specifik URL.

Sidst opdateret: marts 2026. Denne artikel er en del af Stegger.dk’s SEO-ordbog.

Andre artikler i samme emne

Placering i ordbogen