ELIZA og tidlige chatbots — Regelstyret AI før maskinlæring
ELIZA (1966) simulerede konversation via mønstermatchning — ingen AI, ingen forståelse. Forløberen for alle chatbots, inkl. moderne LLM-baserede assistenter.
ELIZA er skabt af Joseph Weizenbaum ved MIT i 1966 og er den tidligste chatbot der opnåede udbredt opmærksomhed. Programmet simulerede en rogeriansk psykoterapeut ved hjælp af mønstermatchning og substitution — ikke AI i nogen meningsfuld forstand, men overbevisende nok til at mange brugere troede de interagerede med et intelligent system.
Princippet: ELIZA scannede brugerens input for nøgleord og mønstre. “Jeg er ked af det” matchede en regel der returnerede “Fortæl mig mere om det at føle sig ked af det” eller “Hvor længe har du haft det sådan?”. Programmet lagrede ingen kontekst, forstod ingenting — det var find-og-erstat med grammatisk tilpasning.
ELIZA-effekten
Weizenbaum blev dybt forstyrret over, at selv hans sekretær — der vidste præcis hvad ELIZA var — bad ham forlade rummet mens hun “talte med” programmet. Han kaldte det ELIZA-effekten: menneskers tendens til at tillægge computerprogrammer menneskelige egenskaber baseret på sproglig output.
ELIZA-effekten er relevant i dag. LLM’ers flydende, sammenhængende svar aktiverer de samme kognitive mønstre som ELIZA gjorde — og kan i endnu højere grad føre til overkreditering af modellernes forståelse og bevidsthed.
Fra ELIZA til ALICE til ChatGPT
Udviklingen fra ELIZA til moderne chatbots er ikke lineær:
PARRY (1972): Simulerede en paranoid skizofrren patient. Mere avancerede mønstre end ELIZA, stadig rent regelbaseret.
ALICE (1995): Brugte AIML (Artificial Intelligence Markup Language) — et XML-baseret format til at definere konversationsmønstre. Vandt Loebner Prize tre gange. Stadig regelbaseret men med tusindvis af mønstre.
SmarterChild (2001): Regelbaseret chatbot på AIM og MSN Messenger med millioner af daglige brugere. En af de første chatbots i masseadoption.
Siri, Cortana, Alexa (2011-2014): Hybrid-systemer: regelbaserede intent-detectorer koblet til knowledge bases og APIs. Bedre til specifikke kommandoer, dårlige ved åben konversation.
ChatGPT (2022): LLM-baseret. Ingen faste regler, ingen mønstre — statistisk forudsigelse af næste token baseret på enorme tekstkorpora. Kvalitativt anderledes end alt hvad der kom før.
Konversation som SEO-flade
Historien om chatbots er parallel med historien om søgemaskiner: begge startede regelbaserede, begge bevæger sig mod neurale systemer. For SEO-praktikere er det relevant fordi conversational AI — ChatGPT Search, Google AI Overviews, Perplexity — i stigende grad er en kanal der kræver sin egen tilgang til synlighed.
Andre artikler i samme emne
- Article spinning — Automatisk omskrivning og SEO-misbrug
- GPT-2 og tidlig generativ AI — Springet til transformer-baseret tekstgenerering
- Latent Semantic Analysis — Semantik uden neurale netværk
- Markov-kæder — Statistisk tekstgenerering uden sproglig forståelse
- RSS-scraping og auto-content — Da feeds blev indholdsfabrikker
- Spintax — Spin Syntax og skabelon-baseret tekstvariation
- Word2Vec og tidlige embeddings — Da ord fik retning i vektorrum
Placering i ordbogen
- Article spinning — Automatisk omskrivning og SEO-misbrug
- GPT-2 og tidlig generativ AI — Springet til transformer-baseret tekstgenerering
- Latent Semantic Analysis — Semantik uden neurale netværk
- Markov-kæder — Statistisk tekstgenerering uden sproglig forståelse
- RSS-scraping og auto-content — Da feeds blev indholdsfabrikker
- Spintax — Spin Syntax og skabelon-baseret tekstvariation
- Word2Vec og tidlige embeddings — Da ord fik retning i vektorrum