Anthropic — Virksomheden bag Claude
Anthropic er grundlagt i 2021 af Dario Amodei og Daniela Amodei m.fl. efter exit fra OpenAI. Fokus på AI-sikkerhed og Constitutional AI — udviklerne bag Claude.
Anthropic er et AI-sikkerhedsselskab grundlagt i 2021 af Dario Amodei (CEO), Daniela Amodei (President) og en gruppe kolleger der forlod OpenAI. Virksomheden er baseret i San Francisco og har rejst flere milliarder dollars fra investorer inkl. Google og Amazon.
Anthropics særlige position i AI-branchen er kombinationen af at udvikle frontier-modeller (Claude) og simultaneously forske aktivt i AI-sikkerhed og alignment — studiet af hvordan man sikrer at avancerede AI-systemer opfører sig i overensstemmelse med menneskelige værdier og intentioner.
Constitutional AI
Anthropics primære metodiske bidrag til AI-sikkerhed er Constitutional AI (CAI) — en træningsmetode hvor modellen guides af en eksplicit “forfatning” af principper frem for udelukkende menneskelig feedback. Modellen trænes til at evaluere og revidere sit eget output baseret på disse principper, hvilket reducerer afhængighed af manuel annotation og gør sikkerhedsorientering mere skalerbar.
CAI er den tekniske grund til at Claude typisk afviser skadelige forespørgsler på en mere nuanceret og kontekstbevidst måde end modeller der primært er alignet via klassisk RLHF.
Claude som produkt og API
Anthropic monetiserer primært via Claude.ai (consumer-produkt) og Anthropic API (B2B). Claude er tilgængelig i tre modelniveauer — Opus (mest kapabel), Sonnet (balance) og Haiku (hurtig og billig) — der opdateres løbende.
Model Context Protocol (MCP), publiceret af Anthropic i 2024, er ved at blive en industristandard for AI-tool-integration og er det hidtil bredeste bidrag til AI-infrastruktur-ecosystemet fra virksomheden.
Andre artikler i samme emne
- Anthropic og AI-sikkerhed — Constitutional AI og ansvarlig AI-udvikling
- Claude API — Anthropics API til integration og automatisering
- Claude Code — Anthropics agentic kodningsassistent
- Claude Computer Use — AI der styrer computere som en bruger
- Claude til SEO — Praktisk brug af Anthropics model i søgemaskinoptimering
- Claude-modeller oversigt — Opus, Sonnet og Haiku forklaret
Placering i ordbogen
- Anthropic og AI-sikkerhed — Constitutional AI og ansvarlig AI-udvikling
- Claude API — Anthropics API til integration og automatisering
- Claude Code — Anthropics agentic kodningsassistent
- Claude Computer Use — AI der styrer computere som en bruger
- Claude til SEO — Praktisk brug af Anthropics model i søgemaskinoptimering
- Claude-modeller oversigt — Opus, Sonnet og Haiku forklaret