HTTP headers — Request og response headers til SEO
HTTP headers er metadata i serverresponset. X-Robots-Tag styrer indeksering på serverniveau, Cache-Control styrer caching — og begge har direkte SEO-relevans.
Hver HTTP-kommunikation — fra browser til server og tilbage — indeholder headers: et sæt nøgle-værdi-par der beskriver requestet eller responset. Størstedelen af headers er usynlige i den daglige drift, men en håndfuld har direkte SEO-relevans og er vigtige at forstå og konfigurere korrekt.
Hvad HTTP headers er
Headers sendes forud for selve indholdet og kommunikerer metadata om requestet eller responset. En request fra Googlebot indeholder headers som User-Agent (hvem sender requestet), Accept-Encoding (hvilke komprimeringsformater der accepteres) og If-None-Match (til betingede requests der tjekker om indhold er ændret).
Serverens response indeholder headers som Content-Type (hvad slags indhold), Cache-Control (caching-direktiver), X-Robots-Tag (indekseringssignaler) og Location (ved redirects). Det er response headers der har størst SEO-relevans.
De SEO-relevante response headers
X-Robots-Tag er den serverbaserede pendant til meta robots-tagget. Den instruerer crawlere i om siden må indekseres og følges. Den afgørende forskel: meta robots virker kun i HTML — X-Robots-Tag virker på alle ressourcetyper. Vil du forhindre Googlebot i at indeksere PDF-filer eller billeder, er X-Robots-Tag vejen:
X-Robots-Tag: noindex
X-Robots-Tag: noindex, nofollow
Cache-Control bestemmer hvordan browsere og CDN-servere cacher ressourcen. For statiske assets med fingerprinted filnavne bruges typisk max-age=31536000, immutable — et år i cache, ingen revalidering. For HTML-sider er et kortere eller no-cache mere passende, da indholdet ændrer sig. Korrekt Cache-Control reducerer load på origin-server og forbedrer indlæsningstid for returbesøgende.
Vary fortæller caching-systemer hvad der varierer svaret. Vary: Accept-Encoding er standard og signalerer at compressed og ucompressed versioner er separate ressourcer. Vary: User-Agent brugt til dynamisk servering af mobil- vs. desktopindhold er problematisk med CDN — mange CDN’er håndterer det ikke korrekt og kan servere forkert version til forkert enhed.
Link headeren bruges til at kommunikere relationer som alternativt til HTML-tags. Link: <https://eksempel.dk/kanonisk/>; rel="canonical" fungerer som et canonical-tag på serverniveau og er særlig nyttigt til ikke-HTML ressourcer.
Tjek dine headers
Headers er usynlige i browseren med mindre du åbner developer tools (Network-fanen → klik på en request → Headers-tab). For serverbaseret tjek bruges curl -I https://eksempel.dk/ fra terminal — det returnerer alle response headers for en HEAD-request.
For SEO-audit af headers: fokuser på at X-Robots-Tag ikke ved en fejl er sat til noindex på produktionssider, at Cache-Control er konfigureret med fornuftige værdier, og at Vary-headeren ikke skaber problemer med CDN-caching. → Denne artikel er en del af Server og HTTP-responser — Statuskoder, redirects og caching.
Andre artikler i samme emne
- Backend — Server-side kode og SEO
- Caching — Browser-caching og server-caching til SEO
- CDN — Content Delivery Network og SEO
- HTTP-statuskoder — 200, 301, 404, 500 og SEO
- HTTPS og SSL/TLS — Sikker forbindelse som SEO-signal
- Komprimering — Gzip, Brotli og hurtigere sideindlæsning
- Minificering — Reducer CSS, JavaScript og HTML-filstørrelser
- Redirect chains — Kæder af omdirigeringer og SEO
- Redirects — 301, 302 og hvornår du bruger hvad
- Sikkerhedsheaders — HSTS, CSP og SEO-konsekvenser
- Soft 404 — Sider der returnerer 200 men opfører sig som 404
Ofte stillede spørgsmål
- Hvad er forskellen på X-Robots-Tag og meta robots?
- Meta robots-tagget er HTML og virker kun på websider. X-Robots-Tag er en HTTP response header og virker på alle ressourcer — billeder, PDF'er, JavaScript-filer og andre ikke-HTML ressourcer. Brug X-Robots-Tag når du vil forhindre indeksering af ressourcer der ikke er HTML-sider.
- Påvirker Cache-Control headers Googlebots crawling?
- Googlebot respekterer ikke standard cache-headers til at styre sin crawl-frekvens. Cache-Control er primært for browsere og CDN-servere. For at styre Googlebots crawl-adfærd bruges robots.txt og crawl-delay direktiver (selvom Google ikke altid respekterer crawl-delay).
- Hvad er Vary-headeren og hvornår er den relevant?
- Vary fortæller caching-systemer at en ressources indhold varierer afhængigt af en specifik request-header. Vary: User-Agent signalerer at mobil og desktop serveres forskelligt. Det er relevant for CDN-konfiguration — et CDN der ikke respekterer Vary kan cache mobilsider og servere dem til desktop-brugere.
- Hvad er Content-Security-Policy og har det SEO-relevans?
- Content-Security-Policy (CSP) er en HTTP response header der begrænser hvilke ressourcer en side må indlæse — scripts, stylesheets, iframes, billeder. En for restriktiv CSP kan blokere Google Tag Manager, analytics-scripts eller tredjeparts-ressourcer. For Googlebot direkte er CSP irrelevant — Googlebot ignorerer CSP. Men en fejlkonfigureret CSP der blokerer nødvendige scripts kan skabe funktionelle problemer der indirekte påvirker brugeroplevelse og konverteringer.
- Hvad er Location-headeren og hvornår bruges den?
- Location-headeren angiver den URL browseren eller Googlebot skal navigere til ved en redirect (301, 302, 307, 308). Den ledsager altid redirects og fortæller Googlebot den nye destination. For SEO er det afgørende at Location-headeren indeholder den absolutte URL med korrekt protokol (https://). Relative URLs i Location-headeren kan fungere i browsere men er formelt forkert og kan skabe problemer for crawlere.
Placering i ordbogen
- Backend — Server-side kode og SEO
- Caching — Browser-caching og server-caching til SEO
- CDN — Content Delivery Network og SEO
- HTTP-statuskoder — 200, 301, 404, 500 og SEO
- HTTPS og SSL/TLS — Sikker forbindelse som SEO-signal
- Komprimering — Gzip, Brotli og hurtigere sideindlæsning
- Minificering — Reducer CSS, JavaScript og HTML-filstørrelser
- Redirect chains — Kæder af omdirigeringer og SEO
- Redirects — 301, 302 og hvornår du bruger hvad
- Sikkerhedsheaders — HSTS, CSP og SEO-konsekvenser
- Soft 404 — Sider der returnerer 200 men opfører sig som 404