Artikel

Sitemap — XML og HTML sitemaps til søgemaskiner

Et sitemap er en liste over dine vigtigste URL'er — og en direkte vejledning til Googlebots crawling af dit site.

Et sitemap er en fil der fungerer som et indeksregister over alle vigtige URL’er på et website. For søgemaskiner er XML sitemaps et af de primære signaler til at opdage, crawle og prioritere sider — særligt på store sites eller nye sites der endnu ikke har opbygget mange indgående links. Det er ikke en garanti for indeksering, men det er den direkte linje til Googlebots crawl-kø.

XML sitemap — format og struktur

Et XML sitemap er et velformet XML-dokument der starter med XML-deklarationen og bruger Schema.org-navnerum fra Sitemaps.org:

<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
  <url>
    <loc>https://eksempel.dk/</loc>
    <lastmod>2026-01-15</lastmod>
    <changefreq>weekly</changefreq>
    <priority>1.0</priority>
  </url>
</urlset>

lastmod er det vigtigste felt — Google bruger det aktivt til at vurdere hvornår en side skal re-crawles. changefreq og priority er vejledende og vægtes lavt af Google i praksis.

Sitemap-index

Store sites med mange URL’er bruger sitemap-index-filer der samler flere individuelle sitemaps:

<sitemapindex xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
  <sitemap>
    <loc>https://eksempel.dk/sitemap-posts.xml</loc>
  </sitemap>
  <sitemap>
    <loc>https://eksempel.dk/sitemap-products.xml</loc>
  </sitemap>
</sitemapindex>

Én sitemap-fil har en grænse på 50.000 URL’er og 50 MB. Sitemap-index løser begge begrænsninger.

Hvornår er et sitemap kritisk

Sitemap er særligt vigtigt i disse situationer:

  • Nye sites — uden backlinks og crawler-historik finder Googlebot ikke alle sider via links alene
  • Store e-commerce — produktkatalog-URL’er der ikke er tilgængeligt fra navigationen
  • Medieheavy sites — billedssitemap og videositemap til indeksering af mediefiler
  • Sites med svag intern linking — sider der ikke er naturligt linket fra andre sider

Sitemap og crawl budget

På store sites spiller sitemappens kvalitet direkte ind på crawl budget. Googlebot bruger sitemapen til at prioritere hvad der skal crawles — URL’er med seneste lastmod og høj intern linkingværdi crawles hyppigere. URL’er der aldrig opdateres og har lav trafik kan deprioriseres.

Sådan registrerer du din sitemap

  1. Tilføj til robots.txt: Sitemap: https://eksempel.dk/sitemap.xml
  2. Submit i Google Search Console under Sitemaps
  3. Submit i Bing Webmaster Tools

Google Search Console rapporterer herefter hvor mange URL’er der er fundet, crawlet og indekseret — og markerer eventuelle fejl. → Denne artikel er en del af Crawling og indeksering — Sådan læser Google din kode.

Andre artikler i samme emne

Ofte stillede spørgsmål

Hvad er et XML sitemap og hvad bruges det til?
Et XML sitemap er en struktureret fil der opremser alle URL'er på et website med metadata om hver side: hvornår den sidst blev opdateret, hvor hyppigt den ændrer sig og dens prioritet. Google og Bing bruger XML sitemaps til at opdage sider der ikke nødvendigvis er tilgængelige via crawling af interne links, og til at forstå sitestruktur på store sites. Sitemapen placeres typisk på /sitemap.xml.
Har alle websites brug for et sitemap?
Ikke nødvendigvis. Kleine sites med god intern linking og få sider har sjældent brug for et sitemap — Googlebot finder dem via links. Sitemap er særligt vigtigt for: store sites (100+ sider), nye sites uden ekstern linking, sites med dynamisk indhold der ikke crawles effektivt, og sites med medier (billeder, video) der skal indekseres.
Hvad er forskellen på XML sitemap og HTML sitemap?
XML sitemaps er til søgemaskiner — et maskinlæsbart dokument Google og Bing bruger til crawling. HTML sitemaps er til brugere — en synlig side med links til alle vigtige sider på sitet. Begge kan eksistere side om side. HTML sitemaps har lavere SEO-relevans i 2026 og er primært en UX-funktion for navigation på store sites.
Hvad skal og bør IKKE inkluderes i et XML sitemap?
Inkluder kun sider du ønsker indekseret: kanoniske URL'er, vigtige indholdssider, produktsider, blogindlæg. Udelad: noindex-sider, redirect-URL'er, URL'er med parametre der skaber duplicate content, 404-sider og low-value utility-sider. En sitemap med mange dårlige URL'er sender negative kvalitetssignaler til Google.
Hvordan angiver man sin sitemap til Google?
To metoder: (1) Tilføj en Sitemap-linje til robots.txt: Sitemap: https://eksempel.dk/sitemap.xml. (2) Submit sitemapen direkte i Google Search Console under Sitemaps. Begge metoder fungerer — robots.txt-metoden sikrer at alle crawlere finder sitemapen automatisk. Google Search Console-submittering giver desuden data om hvilke URL'er Google har behandlet og eventuelle fejl.

Placering i ordbogen