Tool use — Hvordan LLM'er kalder eksterne funktioner og APIs
Tool use lader LLM'er kalde eksterne funktioner og APIs som del af en konversation. Fundamentet for AI-agenter der kan søge, udføre kode og skrive til databaser.
Tool use — også kaldet function calling — er mekanismen der lader en LLM interagere med verden uden for sig selv. I stedet for blot at generere tekst kan modellen returnere et struktureret kald til en ekstern funktion, vente på resultatet og fortsætte ræsonnementet baseret på det.
Flowet: du definerer tilgængelige tools (funktionssignaturer med navn, beskrivelse og parametre). Modellen beslutte baseret på kontekst, om og hvornår den vil kalde et tool. Den returnerer et struktureret kald med argumenter. Applikationen udfører funktionen og returnerer resultatet. Modellen fortsætter konversationen med resultatet som ny kontekst.
Hvad tools muliggør
Uden tool use er en LLM begrænset til sin træningsviden og kontekstvinduet. Med tools kan den:
- Søge i realtid: Hente aktuelle nyheder, Ahrefs-data, Google Search Console-metrics
- Udføre kode: Python, JavaScript, bash-kommandoer med reelle output
- Skrive til databaser: Opdatere CMS, logge data, trigge workflows
- Kalde APIs: Sende beskeder, hente vejrdata, interagere med tredjepartsservices
- Læse og skrive filer: Analysere dokumenter, generere og gemme output
Tool-design er prompt engineering
Beskrivelsen af et tool er afgørende for om modellen bruger det korrekt. En dårlig beskrivelse resulterer i forkerte argumenter eller forkert timing af tool-kaldet. God tool-design er en færdighed analog til prompt engineering — klare beskrivelser, tydelige parametre og eksempler på korrekt brug.
Tool use og sikkerhed
Tool use udvider markant hvad en fejlende agent kan forårsage. En agent med adgang til fil-system, database og API kan gøre reel skade hvis den misfortolker en instruktion. Princippet om least privilege — giv kun adgang til de tools der er nødvendige for den specifikke opgave — er grundlæggende for ansvarlig agentic-arkitektur. → Denne artikel er en del af Agentic AI — Autonome AI-agenter og agentic SEO-workflows.
Andre artikler i samme emne
- A2A — Agent-to-Agent Protocol og multi-agent SEO
- Agent-protokol-stack — De 6 lag i agentic AI-infrastruktur
- Agentic commerce — ACP, UCP og AI-drevet e-commerce
- Agentic SEO — AI-agenter i søgemaskinoptimering
- Agentic SEO-faldgruber — Når AI-agenter går galt
- AI-agenter — Autonome systemer der planlægger og udfører opgaver
- MCP — Model Context Protocol og standardisering af AI-tool integration
- n8n og LLM-automation — Workflow-automatisering med AI-modeller
- NLWeb — Natural Language Web og websites som AI-interface
- Prompt Injection — Angreb mod AI-agenter og LLM-systemer
- WebMCP — Browser-native capabilities for AI-agenter
Ofte stillede spørgsmål
- Hvad er tool use i LLM'er?
- Tool use — også kaldet function calling — er mekanismen der lader en LLM interagere med verden uden for sig selv. Du definerer tilgængelige tools (funktionssignaturer med navn, beskrivelse og parametre), modellen bestemmer baseret på kontekst om og hvornår den vil kalde et tool, returnerer et struktureret kald med argumenter, applikationen udfører funktionen og returnerer resultatet, og modellen fortsætter konversationen med resultatet som ny kontekst.
- Hvad kan en LLM gøre med tool use, som den ikke kan uden?
- Uden tool use er en LLM begrænset til sin træningsviden og kontekstvinduet. Med tools kan den søge i realtid (Ahrefs-data, Google Search Console-metrics, aktuelle nyheder), udføre kode med reelle output, skrive til databaser og CMS, kalde tredjepartsAPIs og læse og skrive filer. Tool use er fundamentet for AI-agenter der kan handle i verden, ikke bare generere tekst om verden.
- Hvad er sikkerhedsrisikoen ved tool use i agentic systemer?
- Tool use udvider markant hvad en fejlende eller manipuleret agent kan forårsage. En agent med adgang til fil-system, database og API kan gøre reel skade ved fejlfortolkede instruktioner eller prompt injection-angreb. Princippet om least privilege er grundlæggende: giv agenten kun adgang til de tools der er nødvendige for den specifikke opgave. Irreversible handlinger som at sende e-mails, slette data eller kalde betalings-APIs bør kræve eksplicit menneskelig bekræftelse.
- Hvad er forskellen på tool use og MCP i praksis?
- Tool use er den generelle mekanisme — du definerer funktionssignaturer i API-kaldet for hvert kald. MCP (Model Context Protocol) er en standardiseret protokol der abstraherer tool-definitions op i genanvendelige servere. I praksis: tool use kræver at du definerer og implementerer hvert tool i din applikation. MCP-servere implementeres én gang og er tilgængelige for alle MCP-kompatible klienter uden re-implementering. For agentic SEO-workflows er MCP-tilgangen bedre til standard-integrationer (Ahrefs, Google Search Console), mens direkte tool use er bedre til custom virksomhedsspecifik logik.
- Hvad er et parallelt tool use-kald og hvornår er det relevant?
- Parallelle tool use-kald er en funktion i Anthropic API der lader Claude kalde multiple tools simultant i ét API-trin i stedet for sekventielt. I stedet for at hente Ahrefs-data → vente → hente GSC-data → vente → analysere, kan Claude kalde begge datakilderne simultant og reducere den samlede latency markant. Det er relevant i agentic SEO-workflows der henter data fra multiple uafhængige sources som del af én analyse — f.eks. at sammenligne søgeordsdata fra Ahrefs, GSC-impressionsdata og konkurrentdata simultant.
Placering i ordbogen
- A2A — Agent-to-Agent Protocol og multi-agent SEO
- Agent-protokol-stack — De 6 lag i agentic AI-infrastruktur
- Agentic commerce — ACP, UCP og AI-drevet e-commerce
- Agentic SEO — AI-agenter i søgemaskinoptimering
- Agentic SEO-faldgruber — Når AI-agenter går galt
- AI-agenter — Autonome systemer der planlægger og udfører opgaver
- MCP — Model Context Protocol og standardisering af AI-tool integration
- n8n og LLM-automation — Workflow-automatisering med AI-modeller
- NLWeb — Natural Language Web og websites som AI-interface
- Prompt Injection — Angreb mod AI-agenter og LLM-systemer
- WebMCP — Browser-native capabilities for AI-agenter