Artikel

Anthropic — Virksomheden bag Claude

Anthropic er grundlagt i 2021 af Dario Amodei og Daniela Amodei m.fl. efter exit fra OpenAI. Fokus på AI-sikkerhed og Constitutional AI — udviklerne bag Claude.

Anthropic er et AI-sikkerhedsselskab grundlagt i 2021 af Dario Amodei (CEO), Daniela Amodei (President) og en gruppe kolleger der forlod OpenAI med AI safety som det centrale formål. Virksomheden er baseret i San Francisco, har rejst flere milliarder dollars fra Google og Amazon, og er udviklerne bag Claude-modellerne samt Model Context Protocol — to af de mest centrale teknologier i agentic SEO-automation i 2026.

Anthropics særlige position i AI-branchen er kombinationen af at udvikle frontier-modeller (Claude) og simultaneously forske aktivt i AI-sikkerhed og alignment — studiet af hvordan man sikrer at avancerede AI-systemer opfører sig i overensstemmelse med menneskelige værdier og intentioner.

Constitutional AI

Anthropics primære metodiske bidrag til AI-sikkerhed er Constitutional AI (CAI) — en træningsmetode hvor modellen guides af en eksplicit “forfatning” af principper frem for udelukkende menneskelig feedback. Modellen trænes til at evaluere og revidere sit eget output baseret på disse principper, hvilket reducerer afhængighed af manuel annotation og gør sikkerhedsorientering mere skalerbar.

CAI er den tekniske grund til at Claude typisk afviser skadelige forespørgsler på en mere nuanceret og kontekstbevidst måde end modeller der primært er alignet via klassisk RLHF.

Claude som produkt og API

Anthropic monetiserer primært via Claude.ai (consumer-produkt) og Anthropic API (B2B). Claude er tilgængelig i tre modelniveauer — Opus (mest kapabel), Sonnet (balance) og Haiku (hurtig og billig) — der opdateres løbende.

Model Context Protocol (MCP), publiceret af Anthropic i 2024, er ved at blive en industristandard for AI-tool-integration og er det hidtil bredeste bidrag til AI-infrastruktur-ecosystemet fra virksomheden. → Denne artikel er en del af Claude — Anthropics AI-model til SEO og agentic workflows.

Andre artikler i samme emne

Ofte stillede spørgsmål

Hvad er Anthropic og hvad gør virksomheden?
Anthropic er et AI-sikkerhedsselskab grundlagt i 2021 af Dario Amodei, Daniela Amodei og kolleger der forlod OpenAI. Virksomheden udvikler Claude-modellerne og forsker aktivt i AI-sikkerhed og alignment — med det erklærede formål at bygge AI-systemer der er hjælpsomme, harmløse og ærlige.
Hvad er Constitutional AI, og hvad adskiller det fra RLHF?
Constitutional AI (CAI) er Anthropics træningstilgang hvor modellen guides af et sæt principper — en 'constitution' — frem for udelukkende menneskelig feedback. Modellen evaluerer og reviderer sine egne outputs mod principperne via AI-genereret feedback (RLAIF). Det giver mere skalerbar og konsistent alignment end klassisk RLHF, men er begrænset af den feedback-model der bruges.
Hvad er Claude-modellernes tre tiers?
Anthropic udgiver Claude i tre niveauer: Opus er den mest kapable og dyre model til komplekse opgaver. Sonnet er arbejdshesten der bruges i størstedelen af produktionsworkflows. Haiku er optimeret til hastighed og lave omkostninger til simple, høj-volumen-opgaver. Alle tre understøtter 200.000 tokens context window.
Hvad er MCP-protokollen, og hvem har udviklet den?
Model Context Protocol (MCP) er en åben standard Anthropic publicerede i november 2024. Den standardiserer kommunikationen mellem LLM-agenter og eksterne tools, databaser og tjenester — en gang implementeret per tjeneste virker en MCP-server med alle MCP-kompatible klienter. Det er Anthropics hidtil bredeste bidrag til AI-infrastruktur-ecosystemet.
Hvem har investeret i Anthropic, og hvad er virksomhedens struktur?
Anthropic er struktureret som en public benefit corporation — en juridisk form der prioriterer virksomhedens mission over ren profit-maksimering. Google og Amazon har begge investeret milliarder af dollars. Selvom Anthropic modtager cloud-infrastruktur fra Google og Amazon, bevarer virksomheden selv kontrol over modeltræning og produktudvikling.

Placering i ordbogen