Artikel

ELIZA og tidlige chatbots — Regelstyret AI før maskinlæring

ELIZA (1966) simulerede konversation via mønstermatchning — ingen AI, ingen forståelse. Forløberen for alle chatbots, inkl. moderne LLM-baserede assistenter.

ELIZA er skabt af Joseph Weizenbaum ved MIT i 1966 og er den tidligste chatbot der opnåede udbredt opmærksomhed. Programmet simulerede en rogeriansk psykoterapeut ved hjælp af mønstermatchning og substitution — ikke AI i nogen meningsfuld forstand, men overbevisende nok til at mange brugere troede de interagerede med et intelligent system.

Princippet: ELIZA scannede brugerens input for nøgleord og mønstre. “Jeg er ked af det” matchede en regel der returnerede “Fortæl mig mere om det at føle sig ked af det” eller “Hvor længe har du haft det sådan?”. Programmet lagrede ingen kontekst, forstod ingenting — det var find-og-erstat med grammatisk tilpasning.

ELIZA-effekten

Weizenbaum blev dybt forstyrret over, at selv hans sekretær — der vidste præcis hvad ELIZA var — bad ham forlade rummet mens hun “talte med” programmet. Han kaldte det ELIZA-effekten: menneskers tendens til at tillægge computerprogrammer menneskelige egenskaber baseret på sproglig output.

ELIZA-effekten er relevant i dag. LLM’ers flydende, sammenhængende svar aktiverer de samme kognitive mønstre som ELIZA gjorde — og kan i endnu højere grad føre til overkreditering af modellernes forståelse og bevidsthed.

Fra ELIZA til ALICE til ChatGPT

Udviklingen fra ELIZA til moderne chatbots er ikke lineær:

PARRY (1972): Simulerede en paranoid skizofrren patient. Mere avancerede mønstre end ELIZA, stadig rent regelbaseret.

ALICE (1995): Brugte AIML (Artificial Intelligence Markup Language) — et XML-baseret format til at definere konversationsmønstre. Vandt Loebner Prize tre gange. Stadig regelbaseret men med tusindvis af mønstre.

SmarterChild (2001): Regelbaseret chatbot på AIM og MSN Messenger med millioner af daglige brugere. En af de første chatbots i masseadoption.

Siri, Cortana, Alexa (2011-2014): Hybrid-systemer: regelbaserede intent-detectorer koblet til knowledge bases og APIs. Bedre til specifikke kommandoer, dårlige ved åben konversation.

ChatGPT (2022): LLM-baseret. Ingen faste regler, ingen mønstre — statistisk forudsigelse af næste token baseret på enorme tekstkorpora. Kvalitativt anderledes end alt hvad der kom før.

Konversation som SEO-flade

Historien om chatbots er parallel med historien om søgemaskiner: begge startede regelbaserede, begge bevæger sig mod neurale systemer. For SEO-praktikere er det relevant fordi conversational AI — ChatGPT Search, Google AI Overviews, Perplexity — i stigende grad er en kanal der kræver sin egen tilgang til synlighed. → Denne artikel er en del af Generativ AI-historik — Fra spintax til sprogmodeller.

Andre artikler i samme emne

Ofte stillede spørgsmål

Hvad var ELIZA, og hvornår blev den skabt?
ELIZA var den tidligste chatbot der opnåede udbredt opmærksomhed, skabt af Joseph Weizenbaum ved MIT i 1966. Programmet simulerede en rogeriansk psykoterapeut ved hjælp af mønstermatchning og substitution — ingen AI i meningsfuld forstand. ELIZA scannede brugerens input for nøgleord og returnererede formulerede spørgsmål tilbage. 'Jeg er ked af det' matchede en regel der returnerede 'Fortæl mig mere om det at føle sig ked af det'. ELIZA forstod ingenting — det var avanceret find-og-erstat.
Hvad er ELIZA-effekten?
ELIZA-effekten er menneskers tendens til at tillægge computerprogrammer menneskelige egenskaber baseret på sproglig output. Weizenbaum blev dybt forstyrret over at selv hans sekretær — der vidste præcis hvad ELIZA var — bad ham forlade rummet mens hun 'talte med' programmet. ELIZA-effekten er relevant i dag: LLM'ers flydende, sammenhængende svar aktiverer de samme kognitive mønstre som ELIZA gjorde og kan i endnu højere grad føre til overkreditering af modellernes forståelse og bevidsthed.
Hvad er udviklingslinjen fra ELIZA til moderne AI-chatbots?
Udviklingen gik fra ELIZA's rene mønstermatchning (1966) over PARRY's mere avancerede regelbaserede mønstre (1972) og ALICE's AIML-baserede konversation der vandt Loebner Prize tre gange (1995) til SmarterChild med millioner af daglige brugere på AIM og MSN Messenger (2001), hybrid-systemer som Siri og Alexa (2011-2014), og til sidst ChatGPT's LLM-baserede tilgang (2022). Skiftet fra regelbaseret til statistisk forudsigelse er kvalitativt anderledes — ikke blot en kvantitativ forbedring.
Hvad er AIML og hvad adskiller det fra spintax og Markov-kæder?
AIML — Artificial Intelligence Markup Language — er et XML-baseret format til at definere konversationsmønstre med kategorier der matcher bruger-input og returnerer foruddefinerede svar. Det er mere struktureret end spintax (som kun varierer ord inden for faste skabeloner) og mere intentionsstyret end Markov-kæder (som kun ser statistiske ordsekvenser). AIML-chatbots kan håndtere kontekst via variabler og kan lære nye mønstre — men er grundlæggende stadig regelbaserede og mangler transformers' evne til at generalisere over nye inputs.
Hvorfor er historien om ELIZA og tidlige chatbots relevant for moderne SEO?
Fordi det historiske mønster gentager sig: ligesom ELIZA-effekten fik brugere til at tillægge et mønstermatchende program menneskelig forståelse, kan LLM'ernes flydende output lede SEO-praktikere til at overkreditere AI's faktuelle pålidelighed. Derudover er konversationelle AI-systemer — ChatGPT Search, Google AI Overviews, Perplexity — i 2026 en faktisk søgeflade der kræver sin egen optimeringsstrategi. Historien fra ELIZA til LLM'er er ikke kun baggrund — den er kontekst for at forstå den platform man nu optimerer mod.

Placering i ordbogen