URL-parametre — Query strings, crawl-problemer og håndtering
URL-parametre som ?sort=pris og ?session=abc12 multiplicerer antallet af URL'er Googlebot ser. Ukontrollerede parametre spilder crawl budget og skaber duplikatindhold.
URL-parametre er tilføjelser til en URL der modificerer sidens indhold eller adfærd. De starter med spørgsmålstegn og er adskilt af &-tegn: /produkter/?sort=pris&farve=roed&side=2. Parametrene her modificerer samme grundlæggende side — men fra Googlebots perspektiv er det tre separate URL’er der potentielt alle skal crawles og vurderes.
Hvilke parametre der skaber problemer
Ikke alle parametre er problematiske. Parametre der skaber ægte, unikt indhold er nødvendige og velkomne. Problematiske er de parametre der skaber varianter af det samme indhold med minimal forskel.
Sorteringsparametre (?sort=pris, ?sort=relevans, ?sort=nyeste) viser de samme produkter i anden rækkefølge. Indholdet er identisk — kun rækkefølgen varierer. Googlebot ser separate sider.
Sporingsparametre (?utm_source=nyhedsbrev, ?ref=facebook) tilføjer ingen indholdsmæssig forskel men skaber unikke URL’er. Disse er hyppigt set i Googlebots crawl-log.
Session-ID’er (?sessionid=abc123xyz) er det mest ekstreme tilfælde: hvert brugerbesøg genererer en unik URL. Et site med session-ID’er i URL’er kan have millioner af unikke URL-varianter af et par hundrede faktiske sider.
Faceted navigation er det hyppigste reelle problem: webshops med filter-kombinationer der eksponentielt multiplicerer URL-antallet.
Canonical er den primære løsning
Et canonical-tag på alle parameteriserede URL’er der peger på den kanoniske, parameter-fri version er den mest anvendte løsning. Det signalerer til Googlebot at /produkter/ er den kanoniske version, uanset hvilke parametre der er tilføjet.
<link rel="canonical" href="https://eksempel.dk/produkter/" />
Canonical løser duplikatindhold-problemet, men løser ikke crawl budget-problemet — Googlebot crawlr stadig de parameteriserede URL’er, den indekserer dem bare ikke. Det er acceptabelt for de fleste sites.
Robots.txt til crawl-blokering
Vil du forhindre Googlebot i overhovedet at crawle parameteriserede URL’er, bruges robots.txt Disallow-regler. Det er relevant for sites med mange interne søgeresultater, session-URL’er eller faceted navigation der genererer enorme mængder parameterised URL’er.
User-agent: Googlebot
Disallow: /*?sort=
Disallow: /*?session=
Vær forsigtig: robots.txt-blokering forhindrer crawling, men Google kan stadig indeksere URL’en hvis den er linket eksternt. Canonical er mere robust til indekserings-håndtering; robots.txt er mere robust til crawl budget-besparelse.
UTM-parametre og Google
UTM-parametre (utm_source, utm_medium, utm_campaign) er et særtilfælde. Google ignorerer dem i vid udstrækning og behandler eksempel.dk/side/ og eksempel.dk/side/?utm_source=nyhedsbrev som den samme side — men crawlr stadig begge. Brug canonical på sider med UTM-parametre for at sikre korrekt håndtering.
→ Denne artikel er en del af Crawling og indeksering — Sådan læser Google din kode.
Andre artikler i samme emne
- Crawl budget — Hvordan Google prioriterer din crawling
- Crawl-fejl — 404, 5xx og andre crawling-problemer
- Crawling — Sådan finder og læser Googlebot din side
- Indeksering — Fra crawlet side til Google-søgeresultat
- Log-fil analyse — Forstå Googlebots crawl-adfærd
- Mobile-first indexing — Googles mobilprioriterede indeksering
- Robots.txt — Styring af Googlebots adgang til dit site
- Sitemap — XML og HTML sitemaps til søgemaskiner
- URL-struktur — Opbygning, slugs og SEO
- XML Sitemap — Hjælp Googlebot finde alle dine sider
Ofte stillede spørgsmål
- Er alle URL-parametre problematiske?
- Nej. Parametre der ændrer indholdet fundamentalt — fx ?sprog=da vs. ?sprog=en eller ?produkt=123 — er nødvendige og bør indekseres. Problematiske parametre er dem der skaber varianter af det samme indhold: sortering, filtrering, session-ID'er og sporingsparametre (utm_source osv.).
- Hvad er faceted navigation og hvorfor er det et problem?
- Faceted navigation er filterbaseret navigation på kategorisider — fx et filter for farve, størrelse og pris på en tøjbutik. Hvert filter tilføjer parametre og skaber en unik URL. 5 farver × 4 størrelser × 3 prisintervaller = 60 URL-kombinationer for den samme kategori. Uden håndtering crawles og potentielt indekseres alle 60.
- Hjælper Google Search Console stadig med URL-parameter-håndtering?
- Google fjernede URL Parameters-værktøjet fra GSC i 2022 med begrundelsen at de selv er bedre til at identificere parametre. Det betyder at canonical-tags og robots.txt nu er de primære håndtag — ikke GSC-konfiguration.
- Hvad er forskellen på canonical og robots.txt til parameterhåndtering?
- Canonical-tags signalerer til Google hvilken URL der er den foretrukne version — Google indekserer den kanoniske URL men crawlr stadig de parameteriserede varianter. Robots.txt-blokering forhindrer crawling af parameteriserede URL'er — men Google kan stadig indeksere dem hvis de er linket eksternt. Canonical er bedst til indekserings-kontrol. Robots.txt er bedst til crawl budget-besparelse. Kombiner dem for fuld kontrol.
- Hvad er konsekvensen af session-ID'er i URL'er?
- Session-ID'er i URL'er som ?sessionid=abc123xyz er det alvorligste parametre-problem: hvert brugerbesøg genererer en unik URL, og Googlebot ser potentielt millioner af URL-varianter af de samme sider. Det spiser crawl budget, skaber duplikatindhold og kan føre til at vigtige sider aldrig crawles. Løsning: gem sessions i cookies (ikke i URL'er) — og hvis session-ID'er allerede er i URL'er, bloker dem i robots.txt og tilføj canonical tags straks.
Placering i ordbogen
- Crawl budget — Hvordan Google prioriterer din crawling
- Crawl-fejl — 404, 5xx og andre crawling-problemer
- Crawling — Sådan finder og læser Googlebot din side
- Indeksering — Fra crawlet side til Google-søgeresultat
- Log-fil analyse — Forstå Googlebots crawl-adfærd
- Mobile-first indexing — Googles mobilprioriterede indeksering
- Robots.txt — Styring af Googlebots adgang til dit site
- Sitemap — XML og HTML sitemaps til søgemaskiner
- URL-struktur — Opbygning, slugs og SEO
- XML Sitemap — Hjælp Googlebot finde alle dine sider