DNS-fejl og crawling — Hvordan DNS-problemer påvirker Googlebot
DNS-fejl stopper Googlebots crawling. Google behandler vedvarende DNS-fejl som alvorlige problemer der kan føre til afindeksering.
Googlebot crawler din side ved at lave HTTP-requests — men inden det kan ske, skal DNS løse dit domæne til en IP-adresse. Fejler DNS-opslaget, når Googlebot aldrig frem. Google klassificerer DNS-fejl som sitewide crawl-fejl og behandler dem alvorligt: vedvarende NXDOMAIN eller SERVFAIL kan føre til afindeksering af hele sitet.
Hvad sker der ved DNS-fejl?
NXDOMAIN (Non-Existent Domain)
Domænet eksisterer ikke i DNS. Googlebot modtager dette svar og stopper crawling. Vedvarer det over tid, kan Google vælge at afindeksere sitet.
DNS-timeout
Nameserveren svarer ikke inden for timeout-perioden. Googlebot prøver sandsynligvis igen senere, men registrerer fejlen.
SERVFAIL
Nameserveren returnerer en fejl. Kan skyldes konfigurationsproblemer hos DNS-udbyderen. Googlebot prøver igen, men gentagne SERVFAIL behandles som et problem.
Hvad siger Google?
Google har bekræftet, at DNS- og netværksfejl behandles seriøst.
Fra Googles dokumentation om crawling: Crawl-fejl der skyldes DNS-problemer klassificeres som “Site errors” i Google Search Console — ikke som individuelle URL-fejl. Sitewide DNS-problemer er blandt de alvorligste crawl-fejl Google registrerer.
Google forsøger at være robust: kortvarige DNS-fejl (under en time) påvirker sjældent indekseringen markant. Langvarige problemer — timer eller dage — kan derimod resultere i, at sider falder ud af indekset.
Sådan overvåger du DNS-sundhed
Google Search Console — Coverage og Crawl Stats
Under “Settings” → “Crawl stats” kan du se, om Googlebot møder fejl. DNS-fejl vil typisk fremgå som “Could not reach site” eller lignende.
Uptime monitoring
Brug et overvågningsværktøj (Uptime Robot, Pingdom, Better Uptime) der tester dit domæne med jævne mellemrum. Sæt alarmer på DNS-fejl.
DNS-overvågning
Nogle DNS-udbydere (Cloudflare, AWS Route 53) tilbyder health checks der kan alarmere ved DNS-problemer.
Crawling under DNS-propagation
Ved DNS-ændringer — f.eks. flytning til ny server — er der en periode hvor DNS-propagation er i gang. Googlebot kan i denne periode ramme enten gammel eller ny server.
Det er normalt og midlertidigt. Googlebots crawling-adfærd under propagation:
- Googlebot bruger sine egne DNS-resolvere (Googles infrastruktur)
- Google-resolvere opdateres typisk hurtigt
- Kortvarig inkonsistens (under 1-2 timer) påvirker sjældent indexeringen mærkbart
For at minimere risikoen: sørg for at den nye server er korrekt konfigureret og returnerer korrekte HTTP-statuskoder inden du skifter DNS.
Redirects og DNS
En DNS-record kan ikke lave en HTTP-redirect. DNS returnerer en IP-adresse — det er alt.
Vil du redirecte gammel-domæne.dk til nyt-domæne.dk, skal du:
- Pege
gammel-domæne.dktil en server (via DNS) - Konfigurere serveren til at returnere 301-redirect til
nyt-domæne.dk
En “DNS-redirect” er reelt bare en A-record til en redirect-server. DNS-udbyderen kan tilbyde det som en brugervenlig funktion, men det er stadig en HTTP-redirect under motorhjelmen.
Hvad du gør ved DNS-crawl-fejl
Brug først nslookup eller dig til at bekræfte, at fejlen er reel og ikke blot lokal cache. Tjek derefter Google Search Console for at se, om fejlen er registreret og hvornår den startede. Opdater DNS-records hos din udbyder og brug URL Inspection-værktøjet i Search Console til at anmode om recrawl af kritiske URL’er.
Sidst opdateret: marts 2026. Denne artikel er en del af Stegger.dk’s SEO-ordbog — den komplette danske reference til søgeoptimering. → Denne artikel er en del af DNS — Domain Name System forklaret.
Andre artikler i samme emne
- Crawl budget — Hvordan Google prioriterer din crawling
- Crawl-fejl — 404, 5xx og andre crawling-problemer
- Crawling — Sådan finder og læser Googlebot din side
- Indeksering — Fra crawlet side til Google-søgeresultat
- Log-fil analyse — Forstå Googlebots crawl-adfærd
- Mobile-first indexing — Googles mobilprioriterede indeksering
- Noindex — Sådan holder du sider ude af Googles indeks
- Robots.txt — Styring af Googlebots adgang til dit site
- Sitemap — XML og HTML sitemaps til søgemaskiner
- URL-parametre — Query strings, crawl-problemer og håndtering
- URL-struktur — Opbygning, slugs og SEO
- XML Sitemap — Hjælp Googlebot finde alle dine sider
Ofte stillede spørgsmål
- Hvad sker der med Googlebots crawling ved DNS-fejl?
- Googlebot skal løse DNS-opslaget før den kan lave HTTP-requests. Fejler DNS-opslaget — fx med NXDOMAIN (domænet eksisterer ikke), DNS-timeout eller SERVFAIL — når Googlebot aldrig frem til serveren. Kortvarige fejl under en time påvirker sjældent indekseringen markant; langvarige problemer i timer eller dage kan resultere i at sider falder ud af indekset.
- Kan en DNS-record lave en HTTP-redirect?
- Nej. En DNS-record returnerer kun en IP-adresse — den kan ikke udføre en HTTP-redirect. Vil du redirecte et domæne til et andet, skal du pege domænet til en server via DNS og derefter konfigurere serveren til at returnere et 301-redirect. En 'DNS-redirect' hos hosting-udbydere er reelt en HTTP-redirect på en redirect-server.
- Hvad gør du ved DNS-crawl-fejl i Google Search Console?
- Bekræft først fejlen med nslookup eller dig for at udelukke at det er lokal cache. Tjek Google Search Console under Crawl Stats for at se hvornår fejlen startede og omfanget. Ret DNS-records hos din udbyder, og brug URL Inspection-værktøjet til at anmode om recrawl af kritiske URL'er.
- Hvad er SERVFAIL, og hvornår opstår det?
- SERVFAIL er et DNS-fejlsvar der returneres, når nameserveren ikke kan behandle forespørgslen korrekt — i modsætning til NXDOMAIN, der indikerer at domænet ikke eksisterer. SERVFAIL opstår typisk ved nameserver-konfigurationsfejl, zone-transferproblemer, DNS-software-crash eller overbelastede nameservere. Googlebot behandler SERVFAIL som en midlertidig fejl og forsøger igen, men gentagne SERVFAIL-svar fører til reduceret crawling.
- Hvor hurtigt registrerer Googlebot genoprettelse efter en DNS-fejl?
- Google er ikke offentlig om præcise tidsrammer, men erfaringsmæssigt begynder Googlebot at crawle igen relativt hurtigt efter DNS-problemer er løst — typisk inden for timer. Har fejlen varet dage og resulteret i afindeksering af sider, kan det tage uger at genetablere fuld synlighed fordi Google skal recrawle og reindeksere siderne. Brug URL Inspection i Search Console til at fremskynde recrawling af de vigtigste sider.
Placering i ordbogen
- Crawl budget — Hvordan Google prioriterer din crawling
- Crawl-fejl — 404, 5xx og andre crawling-problemer
- Crawling — Sådan finder og læser Googlebot din side
- Indeksering — Fra crawlet side til Google-søgeresultat
- Log-fil analyse — Forstå Googlebots crawl-adfærd
- Mobile-first indexing — Googles mobilprioriterede indeksering
- Noindex — Sådan holder du sider ude af Googles indeks
- Robots.txt — Styring af Googlebots adgang til dit site
- Sitemap — XML og HTML sitemaps til søgemaskiner
- URL-parametre — Query strings, crawl-problemer og håndtering
- URL-struktur — Opbygning, slugs og SEO
- XML Sitemap — Hjælp Googlebot finde alle dine sider