Agent-protokol-stack — De 6 lag i agentic AI-infrastruktur
Agent-protokol-stacken er de 6 lag der definerer hvordan AI-agenter interagerer med tools, hinanden, websites og commerce: MCP, A2A, NLWeb, WebMCP, ACP og UCP. For SEO er det den nye infrastruktur bag agent-synlighed.
Agent-protokol-stacken er de 6 lag der definerer hvordan AI-agenter interagerer med tools, hinanden, websites og commerce. Det er den infrastruktur der afgør om et site er synligt, queryable og interaktivt for AI-agenter — eller om agenten skal gætte sig frem.
De 4 lag
Agent/Tool-lag: MCP. Model Context Protocol forbinder agenter med eksterne data, API’er og tools. Det er USB-C for AI — én protokol der lader enhver agent forbinde med enhver datakilde. Fundamentet som alle andre lag bygger ovenpå.
Agent/Agent-lag: A2A. Agent-to-Agent Protocol lader agenter fra forskellige leverandører kommunikere og delegere. Når en opgave kræver research-agent + evaluerings-agent + purchase-agent, koordinerer A2A kæden.
Agent/Website-lag: NLWeb + WebMCP. NLWeb gør websites queryable — agenter sender queries og får strukturerede svar. WebMCP deklarerer actions — agenter ved hvilke handlinger sitet understøtter. NLWeb er for information, WebMCP er for interaktion.
Agent/Commerce-lag: ACP + UCP. Agentic Commerce Protocol (OpenAI/Stripe) og Universal Commerce Protocol (Google/Shopify) muliggør product discovery, checkout og post-purchase lifecycle for AI-agenter.
Hvordan lagene arbejder sammen
Et konkret eksempel: en bruger spørger Google AI Mode “find mig en god task chair under 3000 kr med lumbar support”.
MCP aktiveres — agenten forbinder med produktdatabaser og review-platforme. A2A koordinerer — specialist-agenter evaluerer ergonomi, pris og shipping. NLWeb spørger retailers direkte — sites med /ask endpoint svarer struktureret, sites uden tvinges agenten til at scrape. WebMCP deklarerer actions — den vindende retailers checkout-capabilities er eksplicitte. UCP gennemfører købet — inden for Googles AI-oplevelse.
Brugeren besøgte aldrig en produktside. Hele transaktionen skete via protokol-stacken.
Hvad der allerede virker vs. hvad der er tidligt
MCP er moden — 10.000+ servere, understøttet af Anthropic, OpenAI, Google og Microsoft. De facto standard.
A2A er live med 50+ partnere. Linux Foundation vedligeholder det. Agent Cards er implementerbare nu.
NLWeb er open-source med early adopters (TripAdvisor, Shopify). Fundamentet (Schema.org) er allerede bredt implementeret.
WebMCP er i Chrome early preview. Bredere support forventes H2 2026.
ACP og UCP er i aktiv rollout med store launch partners.
Konsekvenser for SEO
Agent-protokol-stacken ændrer SEO’s scope fundamentalt:
Klassisk SEO optimerer for Googles crawler. Agent-kompatibel SEO optimerer for et økosystem af agenter der bruger multiple protokoller til at evaluere, anbefale og handle.
De sites der er forberedt — structured data, server-side rendering, cross-source konsistens, Agent Cards — er allerede agent-kompatible. De sites der ikke er, tvinges agenter til at gætte — og agenter tager den vej med mindst friktion.
Hvad SEO-professionelle bør gøre nu
Fire handlinger der forbereder til agentic SEO uanset hvilke specifikke protokoller der modner:
Maskinlæsbart indhold over volume — priser i plain text, features uden JavaScript-gates, server-side renderet FAQ.
Structured data audit — Schema.org er det fundament NLWeb og hele protokol-stacken bygger på.
Cross-source konsistens audit — agenter verificerer claims mod tredjeparts-data. Inkonsistens filtrerer.
Publicer Agent Card — /.well-known/agent-card.json. Det koster intet og gør sitet opdagbart for A2A-agenter.
Disse fire handlinger forbereder et site til agent-interaktion uanset hvilke specifikke protokoller der vinder. Det er principper, ikke tool-valg — og principper holder.
Andre artikler i samme emne
- A2A — Agent-to-Agent Protocol og multi-agent SEO
- Agentic commerce — ACP, UCP og AI-drevet e-commerce
- Agentic SEO — AI-agenter i søgemaskinoptimering
- Agentic SEO-faldgruber — Når AI-agenter går galt
- AI-agenter — Autonome systemer der planlægger og udfører opgaver
- MCP — Model Context Protocol og standardisering af AI-tool integration
- n8n og LLM-automation — Workflow-automatisering med AI-modeller
- NLWeb — Natural Language Web og websites som AI-interface
- Prompt Injection — Angreb mod AI-agenter og LLM-systemer
- Tool use — Hvordan LLM'er kalder eksterne funktioner og APIs
- WebMCP — Browser-native capabilities for AI-agenter
Ofte stillede spørgsmål
- Hvad er de 6 lag i agent-protokol-stacken?
- Fire lag med seks protokoller: (1) Agent/Tool-lag: MCP forbinder agenter med data, API'er og tools. (2) Agent/Agent-lag: A2A lader agenter koordinere og delegere opgaver. (3) Agent/Website-lag: NLWeb gør sites queryable, WebMCP deklarerer actions. (4) Agent/Commerce-lag: ACP (OpenAI/Stripe) og UCP (Google/Shopify) muliggør product discovery og checkout. Lagene er designet til at arbejde sammen — MCP er fundamentet, resten bygger ovenpå.
- Hvilke protokoller er vigtigst for SEO?
- For content-sites: MCP og NLWeb (gør content tilgængeligt for agenter) plus Agent Cards fra A2A (gør sitet opdagbart). For e-commerce: alle seks, med ACP/UCP som de mest transformative. For alle: structured data, server-side rendering og cross-source konsistens er fundamentet alle protokoller bygger på — klassisk teknisk SEO er agent-kompatibilitet.
- Konkurrerer protokollerne med hinanden?
- Nej — de opererer på forskellige lag af samme stack. MCP forbinder agenter med data (vertikalt). A2A forbinder agenter med hinanden (horisontalt). NLWeb og WebMCP forbinder agenter med websites (information vs. actions). ACP og UCP forbinder agenter med commerce (checkout og lifecycle). Et komplet agentic workflow bruger typisk 3-4 af dem samtidigt.
- Hvad skal SEO-professionelle gøre nu?
- Fire handlinger: (1) Prioritér maskinlæsbart indhold over volume — priser i plain text, features uden JavaScript-gates, server-side renderet FAQ. (2) Audit structured data — Schema.org er fundamentet NLWeb bygger på. (3) Audit cross-source konsistens — A2A-agenter verificerer claims mod tredjeparts-data. (4) Publicer Agent Card på /.well-known/agent-card.json. Disse fire handlinger forbereder et site til agent-interaktion uanset hvilke specifikke protokoller der vinder.
- Er det for tidligt at investere i agentic protokoller?
- Nej — men fokusér på fundamentet, ikke på specifikke implementeringer. Structured data, server-side rendering, ren HTML og cross-source konsistens er teknisk SEO-fundamenter der betaler sig uanset om NLWeb, WebMCP eller en endnu-ikke-lanceret protokol vinder. De specifikke protokol-implementeringer kan vente til adoption modner. Fundamentet kan ikke.
Placering i ordbogen
- A2A — Agent-to-Agent Protocol og multi-agent SEO
- Agentic commerce — ACP, UCP og AI-drevet e-commerce
- Agentic SEO — AI-agenter i søgemaskinoptimering
- Agentic SEO-faldgruber — Når AI-agenter går galt
- AI-agenter — Autonome systemer der planlægger og udfører opgaver
- MCP — Model Context Protocol og standardisering af AI-tool integration
- n8n og LLM-automation — Workflow-automatisering med AI-modeller
- NLWeb — Natural Language Web og websites som AI-interface
- Prompt Injection — Angreb mod AI-agenter og LLM-systemer
- Tool use — Hvordan LLM'er kalder eksterne funktioner og APIs
- WebMCP — Browser-native capabilities for AI-agenter