Noindex — Sådan holder du sider ude af Googles indeks
Noindex holder sider ude af Googles søgeresultater — brugt korrekt er det et effektivt redskab til at styre hvad der indekseres.
Noindex er et robots-direktiv der instruerer søgemaskiner om ikke at indeksere en specifik side. Det er et centralt teknisk SEO-redskab til at holde lavkvalitets-sider, duplikatindhold og funktionelle sider ude af Googles søgeindeks, så crawl budget bruges på de sider der faktisk skal ranke. En side med noindex crawles stadig — men vises ikke i søgeresultaterne og fjernes fra indekset ved næste crawl.
Hvad er noindex?
Noindex er et robots-direktiv, der instruerer søgemaskiner om ikke at indeksere en bestemt side. En side med noindex:
- Kan stadig crawles af Googlebot
- Vil ikke vises i søgeresultaterne
- Mister sin plads i Google’s indeks (eller fjernes fra det, hvis den var indekseret)
Noindex er en side-niveau instruktion — i modsætning til robots.txt, der opererer på URL-niveau og blokerer crawling, ikke indeksering.
To implementeringsmetoder
1. Meta robots tag (HTML)
Den mest brugte metode — placeres i <head>-sektionen:
<meta name="robots" content="noindex">
<meta name="robots" content="noindex, nofollow">
<meta name="robots" content="noindex, follow">
Standardværdien for follow er follow, så noindex alene er tilstrækkeligt, hvis du ønsker at Googlebot stadig følger links på siden.
2. X-Robots-Tag (HTTP header)
X-Robots-Tag sættes i serverens HTTP-svar-header — nyttigt til ikke-HTML-ressourcer som PDF-filer:
X-Robots-Tag: noindex
X-Robots-Tag: noindex, nofollow
Kan konfigureres i .htaccess (Apache), nginx.conf eller via CMS-plugin. Effekten er identisk med meta robots.
Hvornår skal du bruge noindex?
Tak-sider og bekræftelsessider
Sider som /tak-for-din-besked/ eller /ordre-bekraeftet/ har ingen søgeværdi og bør holdes ude af indekset.
Interne søgeresultater
Sider som /soeg/?q=... skaber duplicate content og tyndt indhold. Noindex er standard-løsningen.
Stagingmiljøer og testversioner
Sørg for at staging-miljøet (fx staging.eksempel.dk) er noindexed — og helst beskyttet med password.
Tynde og duplicate kategorisider
Paginerede kategorisider med 2-3 produkter, filtrerings-URLs med begrænset indhold, eller sider der nærmest duplikerer andre sider.
Brugerprofiler og interne kontooplysninger
Loginbeskyttede sider crawles sjældent, men noindex er et ekstra sikkerhedsnet.
Den kritiske forskel: noindex vs robots.txt
Dette er den hyppigste fejl i teknisk SEO:
| Noindex | Robots.txt disallow | |
|---|---|---|
| Blokerer crawling | Nej — siden crawles stadig | Ja — Googlebot besøger ikke siden |
| Blokerer indeksering | Ja | Nej — siden KAN stadig indekseres |
| Googlebot læser direktivet | Ja — Googlebot skal crawle siden for at se noindex | Nej — Googlebot læser ikke sidens kode |
Den farligste kombination: Disallow i robots.txt + noindex i HTML.
Hvis Googlebot er blokeret fra at crawle siden, ser den aldrig noindex-direktivet. Resultatet: siden kan indekseres alligevel — typisk fordi andre sites linker til den. Brug enten robots.txt ELLER noindex, aldrig begge på samme side til samme formål.
Noindex og crawl budget
Sider med noindex crawles stadig af Googlebot og bruger dermed crawl budget. På meget store sites med mange noindexed sider kan det være en udfordring.
Løsning: Overvej om noindexed sider alligevel skal crawles (f.eks. for at sikre links følges), eller om de skal blokeres via robots.txt med forbehold for ovenstående.
Ofte stillede spørgsmål
Hvad sker der med eksisterende ranking, når jeg sætter noindex?
Siden fjernes fra Google’s indeks ved næste crawl — typisk inden for dage til uger. Al ranking og trafik forsvinder.
Kan noindex bruges midlertidigt?
Ja. Noindex kan fjernes igen, og siden vil blive indekseret ved næste crawl. Brugt til midlertidig kontrol, f.eks. under indholdsopdatering.
Kan jeg tjekke om en side er noindexed?
Ja — brug URL Inspection Tool i Google Search Console for at se, hvad Google faktisk ser på en specifik URL.
Sidst opdateret: marts 2026. Denne artikel er en del af Stegger.dk’s SEO-ordbog. → Denne artikel er en del af Metadata og tekniske signaler — Meta tags, canonical og hreflang.
Andre artikler i samme emne
- Crawl budget — Hvordan Google prioriterer din crawling
- Crawl-fejl — 404, 5xx og andre crawling-problemer
- Crawling — Sådan finder og læser Googlebot din side
- DNS-fejl og crawling — Hvordan DNS-problemer påvirker Googlebot
- Indeksering — Fra crawlet side til Google-søgeresultat
- Log-fil analyse — Forstå Googlebots crawl-adfærd
- Mobile-first indexing — Googles mobilprioriterede indeksering
- Robots.txt — Styring af Googlebots adgang til dit site
- Sitemap — XML og HTML sitemaps til søgemaskiner
- URL-parametre — Query strings, crawl-problemer og håndtering
- URL-struktur — Opbygning, slugs og SEO
- XML Sitemap — Hjælp Googlebot finde alle dine sider
Ofte stillede spørgsmål
- Hvad er noindex?
- Noindex er et robots-direktiv der fortæller Google at en side ikke må medtages i søgeindekset. Siden crawles stadig — Googlebot besøger og læser siden — men den vises ikke i søgeresultater. Noindex implementeres typisk via meta robots-tagget i sidens <head>: <meta name=robots content=noindex>. Det kan også implementeres via X-Robots-Tag i HTTP-headeren, hvilket er nødvendigt for ikke-HTML-filer som PDF.
- Hvornår bør man bruge noindex?
- Noindex er relevant for sider der ikke bør vises i søgeresultater: tak-sider efter formularindsendelse, interne søgeresultater, stagingmiljøer, tynde kategorisider med lidt unikt indhold, duplicate-varianter der ikke håndteres via canonical, og admin- og login-sider. Grundreglen er at noindex sider der eksisterer af funktionelle grunde, men som giver ingen eller dårlig brugerværdi hvis de vises i søgeresultater.
- Hvad er forskellen på noindex og at blokere en side i robots.txt?
- Noindex fortæller Google at siden ikke må indekseres — men siden kan stadig crawles. Robots.txt Disallow blokerer crawling — Googlebot besøger slet ikke siden. Kombinerer man begge metoder opstår der et problem: hvis Googlebot er blokeret fra at crawle siden, kan den ikke se noindex-direktivet i <head>, og siden kan forblive i indekset. Den korrekte fremgangsmåde er at tillade crawling (ingen robots.txt-blokering) og styre indeksering via noindex-tagget alene.
- Hvornår bør man bruge X-Robots-Tag frem for meta robots?
- X-Robots-Tag er nødvendig for ikke-HTML-ressourcer som PDF-filer, billeder og videoer — meta robots-tagget kan kun bruges i HTML-dokumenters head-sektion. Brug X-Robots-Tag i HTTP-response-headeren til at styre indeksering af alle filtyper. For standard HTML-sider er meta robots-tagget nemmere at implementere og giver identisk effekt.
- Kan noindex fjernes igen, og hvad sker der så?
- Ja. Noindex kan fjernes når som helst, og siden vil blive indekseret ved næste crawl. Der er ingen permanent skade — siden behandles som en ny side for Google. Processen kan tage dage til uger afhængig af crawlfrekvens. Noindex bruges legitimt midlertidigt under indholdsopdatering, mens sider er ufærdige eller under A/B-test.
Placering i ordbogen
- Crawl budget — Hvordan Google prioriterer din crawling
- Crawl-fejl — 404, 5xx og andre crawling-problemer
- Crawling — Sådan finder og læser Googlebot din side
- DNS-fejl og crawling — Hvordan DNS-problemer påvirker Googlebot
- Indeksering — Fra crawlet side til Google-søgeresultat
- Log-fil analyse — Forstå Googlebots crawl-adfærd
- Mobile-first indexing — Googles mobilprioriterede indeksering
- Robots.txt — Styring af Googlebots adgang til dit site
- Sitemap — XML og HTML sitemaps til søgemaskiner
- URL-parametre — Query strings, crawl-problemer og håndtering
- URL-struktur — Opbygning, slugs og SEO
- XML Sitemap — Hjælp Googlebot finde alle dine sider