NLWeb — Natural Language Web og websites som AI-interface
NLWeb er Microsofts åbne protokol der gør enhver website til et natural language interface — agenter kan sende queries til et /ask endpoint og modtage strukturerede JSON-svar i stedet for at scrape HTML.
NLWeb (Natural Language Web) er Microsofts åbne protokol der gør enhver website til et natural language interface for AI-agenter. I stedet for at agenter scraper HTML og gætter på indhold, kan de sende naturlig-sprog queries til et standardiseret /ask endpoint og modtage strukturerede JSON-svar.
Schema.org som fundament
NLWeb er skabt af R.V. Guha — personen bag RSS, RDF og Schema.org. Det er bevidst: NLWeb bygger direkte oven på Schema.org-markup, RSS feeds og struktureret indhold der allerede eksisterer på mange websites.
For SEO-professionelle der har investeret i structured data er NLWeb derfor en naturlig forlængelse — ikke en revolution. Schema markup har altid hjulpet søgemaskiner. Nu hjælper det også AI-agenter.
Hvad /ask endpointet gør
Et NLWeb-kompatibelt site publicerer et /ask endpoint. En agent kan sende en naturlig-sprog query og modtage et struktureret JSON-svar der direkte besvarer spørgsmålet — i stedet for at parse hele sider.
Eksempel: en agent spørger “Hvad er crawl budget?” og modtager et JSON-objekt med definition, relaterede begreber, og URL til den fulde artikel. Agenten behøver ikke at navigere sitets menu, parse HTML eller gætte på relevante sektioner.
Enhver NLWeb-instans er automatisk også en MCP-server. Det betyder at NLWeb-sites er opdagelige i hele MCP-agent-økosystemet uden yderligere konfiguration.
Adoption og status
Microsoft annoncerede NLWeb på Build 2025 i maj 2025. Early adopters inkluderer TripAdvisor, Shopify, Eventbrite, O’Reilly Media og Hearst. Det er open-source på GitHub.
NLWeb er stadig tidligt i adoption, men fundamentet — Schema.org, RSS, struktureret HTML — er allerede best practice for teknisk SEO. Sites der investerer i dette fundament er NLWeb-parate uanset om de implementerer /ask endpointet.
Statiske sites og NLWeb
Statiske sites (Astro, Hugo, Next.js med static export) kan ikke hoste NLWeb’s dynamiske /ask endpoint uden en serverless function (Cloudflare Workers, Vercel Edge Functions). Men fundamentet kan bygges statisk: komplet Schema.org markup, RSS feed, XML sitemap og ren HTML-struktur.
Det er det fundament agenter bruger når /ask ikke er tilgængeligt. Fuld NLWeb-kompatibilitet kræver runtime — men 80% af værdien kommer fra det strukturelle fundament.
Konsekvenser for SEO-strategi
NLWeb øger den strategiske værdi af structured data og teknisk SEO markant. Schema markup, server-side rendering, ren HTML og tilgængelig content er ikke længere kun søgemaskinoptimering — det er agent-kompatibilitet.
Sites der har forsømt structured data har nu dobbelt incitament til at prioritere det: bedre søgesynlighed OG bedre agent-queryability. Det er den sjældne SEO-investering der betaler sig i to kanaler samtidigt.
Andre artikler i samme emne
- A2A — Agent-to-Agent Protocol og multi-agent SEO
- Agent-protokol-stack — De 6 lag i agentic AI-infrastruktur
- Agentic commerce — ACP, UCP og AI-drevet e-commerce
- Agentic SEO — AI-agenter i søgemaskinoptimering
- Agentic SEO-faldgruber — Når AI-agenter går galt
- AI-agenter — Autonome systemer der planlægger og udfører opgaver
- MCP — Model Context Protocol og standardisering af AI-tool integration
- n8n og LLM-automation — Workflow-automatisering med AI-modeller
- Prompt Injection — Angreb mod AI-agenter og LLM-systemer
- Tool use — Hvordan LLM'er kalder eksterne funktioner og APIs
- WebMCP — Browser-native capabilities for AI-agenter
Ofte stillede spørgsmål
- Hvad er NLWeb?
- NLWeb (Natural Language Web) er Microsofts åbne protokol der lader AI-agenter sende naturlig-sprog queries til et standardiseret /ask endpoint på et website og modtage strukturerede JSON-svar. I stedet for at agenten scraper HTML og infererer mening, svarer sitet direkte på agentens spørgsmål. Enhver NLWeb-instans er automatisk en MCP-server — det vil sige at NLWeb-sites er opdagelige i hele MCP-agent-økosystemet uden yderligere konfiguration.
- Hvem skabte NLWeb?
- NLWeb er skabt af R.V. Guha — samme person bag RSS, RDF og Schema.org. Det er ikke tilfældigt: NLWeb bygger bevidst oven på eksisterende webstandarder. Microsoft annoncerede det på Build 2025 i maj 2025. Early adopters inkluderer TripAdvisor, Shopify, Eventbrite, O'Reilly Media og Hearst. Det er open-source på GitHub.
- Hvorfor er NLWeb relevant for SEO?
- NLWeb er en naturlig forlængelse af eksisterende SEO-arbejde. Schema markup, rene RSS feeds og velstruktureret indhold er det fundament NLWeb bygger på. Sites der allerede har investeret i structured data har et forspring. Sites der ikke har, er sværere for agenter at arbejde med — men de kan hurtigt indhente ved at implementere schema markup nu. Det øger værdien af teknisk SEO-arbejde der ellers har stået stille.
- Kan statiske sites implementere NLWeb?
- Ikke fuldt — NLWeb kræver et server-side /ask endpoint der besvarer queries dynamisk. Statiske sites (Astro, Hugo, Next.js med static export) kan ikke hoste dette uden en serverless function (Cloudflare Workers, Vercel Edge Functions). Alternativet: publiser komplet structured data, RSS, og sitemap — det er det fundament agenter bruger når /ask ikke er tilgængeligt. Fuld NLWeb-kompatibilitet kræver runtime, men fundamentet kan bygges statisk.
- Hvad er forskellen på NLWeb og WebMCP?
- NLWeb gør content queryable — agenter kan stille spørgsmål og få svar. WebMCP deklarerer actions — agenter ved præcist hvilke handlinger sitet understøtter (tilføj til kurv, book demo, check tilgængelighed). NLWeb er for information retrieval, WebMCP er for transaktioner. De er komplementære, ikke konkurrerende: et site kan implementere begge.
Placering i ordbogen
- A2A — Agent-to-Agent Protocol og multi-agent SEO
- Agent-protokol-stack — De 6 lag i agentic AI-infrastruktur
- Agentic commerce — ACP, UCP og AI-drevet e-commerce
- Agentic SEO — AI-agenter i søgemaskinoptimering
- Agentic SEO-faldgruber — Når AI-agenter går galt
- AI-agenter — Autonome systemer der planlægger og udfører opgaver
- MCP — Model Context Protocol og standardisering af AI-tool integration
- n8n og LLM-automation — Workflow-automatisering med AI-modeller
- Prompt Injection — Angreb mod AI-agenter og LLM-systemer
- Tool use — Hvordan LLM'er kalder eksterne funktioner og APIs
- WebMCP — Browser-native capabilities for AI-agenter