Artikel

llms.txt — Vejledningsfil til LLM-crawlere

llms.txt er en tekstfil i dit sites rod der fortæller LLM-crawlere om sidens formål, primære indhold og nøglesider — analogt til robots.txt men rettet mod AI-systemer.

llms.txt er en tekstfil placeret i roden af et website (/llms.txt) der vejleder store sprogmodeller og AI-crawlere om sidens indhold, formål og vigtigste ressourcer. Konventionen er analog til robots.txt for traditionelle crawlere, men har et fundamentalt andet formål: frem for at styre adgang giver den kontekst.

Formålet med llms.txt

Traditionelle søgemaskiner crawler og indekserer websider trinvist over tid og bygger selv en forståelse af dit site. LLM’er med browsing-kapacitet fungerer anderledes: de leder efter relevante sider til et specifikt spørgsmål og har ikke nødvendigvis et komplet billede af dit sites struktur og formål.

llms.txt giver AI-systemet en hurtig og præcis indgang: hvad er dette site, hvem er det lavet for, hvilke sider er de vigtigste, og hvad skal LLM’en vide inden den bruger indholdet som kilde.

Syntaks og struktur

En llms.txt-fil er ren markdown. Den typiske struktur:

# Sitenavn

> Kort beskrivelse af sitet — formål, målgruppe og primært emne.

## Nøglesider

- [Sidens navn](URL): Kort beskrivelse af siden
- [En anden vigtig side](URL): Beskrivelse

## Optionelt

- [Kontaktside](URL): Kontaktinformation
- [Om siden](URL): Baggrund og forfatter

Den første linje er sidens navn. Afsnittet efter > er en kort beskrivelse der hjælper LLM’en med at forstå konteksten. Herefter listes nøglesider med forklarende beskrivelser.

Filen suppleres ofte af en llms-full.txt der indeholder alt tekstindhold fra sitets vigtigste sider i ét dokument — optimeret til at blive sendt direkte til en LLM i stedet for at kræve individuel crawling.

Forskel fra robots.txt

robots.txtllms.txt
FormålAdgangskontrolKontekst og vejledning
FormatDirektiver (Allow/Disallow)Markdown-beskrivelse
StandardOfficiel (RFC 9309)Uofficiel konvention
Respekteres afAlle seriøse crawlereFrivilligt af AI-systemer

Hvem bruger llms.txt

Anthropics crawler ClaudeBot og OpenAIs GPTBot crawler webindhold til træning og browsing. Hverken Anthropic eller OpenAI har officielt annonceret specifik støtte til llms.txt-standarden, men konventionen er under stigende adoption i den tekniske SEO-verden som en del af AI citation-optimering.

Perplexity og andre AI-søgemaskiner bruger sitets tekstindhold aktivt som kildemateriale — en velstruktureret llms.txt kan hjælpe disse systemer med at identificere de mest autoritative sider på dit site.

SEO-relevansen i 2026

llms.txt er ikke et direkte ranking-signal i traditionel SEO. Relevansen er indirekte: sites der er let forståelige for AI-systemer har en fordel i den konkurrence der foregår om at blive citeret i AI-genererede svar.

I konteksten af generative engine optimization er llms.txt ét af flere signaler der tilsammen øger sandsynligheden for AI-citation — sammen med klar struktur, faktabaseret indhold og stærk domæneautoritet.

Relaterede artikler


Sidst opdateret: marts 2026. Denne artikel er en del af Stegger.dk’s SEO-ordbog.

Andre artikler i samme emne

Ofte stillede spørgsmål

Er llms.txt en officiel standard?
Nej. llms.txt er en emerging convention foreslået af Answer.AI i 2024 og er ikke en officiel standard fra W3C, Google eller Anthropic. Ingen crawlere er pt. forpligtede til at respektere den. Konventionen er under aktiv diskussion og adoption kan stige i 2026-2027.
Hvad er forskellen på llms.txt og robots.txt?
robots.txt styrer adgang — den fortæller crawlere hvilke URL'er der må crawles. llms.txt er vejledende og informativ: den beskriver hvad dit site handler om, hvem det er til, hvilke sider der er vigtigst, og hvad LLM'er bør vide om indholdet. De to filer supplerer hinanden og løser fundamentalt forskellige problemer.
Skal jeg oprette llms.txt nu?
Det er lav indsats og potentielt værdifuld fremtidssikring. Filen tager fem minutter at oprette og skader ikke. Hvis AI-browsere begynder at prioritere sites med llms.txt, er du allerede klar. Manglen på officiel standard er et argument for at vente — men ikke et stærkt et.
Hvad er llms-full.txt og hvad bruges den til?
llms-full.txt er en suplement til llms.txt der indeholder alt tekstindhold fra sitets vigtigste sider samlet i ét dokument. Den er optimeret til at blive sendt direkte til en LLM i stedet for at kræve individuel crawling af alle sider. For SEO-praktikere er den relevant fordi den giver AI-systemer en komplet vidensbase om dit site i ét request — potentielt med fordel for AI-systemer der svarer på spørgsmål om dit emneområde.
Hvordan relaterer llms.txt til robots.txt og sitemap.xml i en samlet crawl-strategi?
De tre filer løser fundamentalt forskellige problemer og supplerer hinanden. robots.txt styrer adgang for alle crawlere inklusive AI-crawlere som ClaudeBot og GPTBot. sitemap.xml fortæller crawlere hvilke URL'er der eksisterer og hvornår de sidst er opdateret. llms.txt giver AI-systemer kontekst og vejledning om hvad der er vigtigt på sitet. I en komplet crawl-strategi for AI-synlighed bør alle tre filer vedligeholdes: robots.txt sikrer korrekt adgang, sitemap.xml sikrer indeksering, og llms.txt optimerer AI-forståelse af sitets formål og autoritet.

Placering i ordbogen