Forestil dig, at du skriver til en chatbot i din bank eller kommune. Du får et hurtigt svar: "Det lyder som en svær situation. Jeg vil gerne prøve at hjælpe dig."
Sproget er venligt og empatisk. Det lyder næsten som et menneskes. Men bag de imødekommende ord sidder ikke en person.
Der optræder derimod en algoritme, der gætter sig frem til, hvad der udgør det mest sandsynlige svar på dit spørgsmål.
Algoritmen arbejder sig frem til sit svar via statistiske beregninger, ikke gennem forståelse og refleksion. Alligevel reagerer vi som brugere ofte på chatbots, som om vi er i kontakt med 'nogen'.
Det gør vi, fordi sproget opleves tilstrækkeligt menneskeligt, til at der opstår en illusion af nærvær, dialog og gensidighed.
I vores helt nye bog undersøger min kollega Gitte Rose og jeg, hvordan AI-chatbots efterligner kommunikation mellem mennesker, og hvorfor det er problematisk, hvis vi accepterer det som en ægte samtale.
For i det øjeblik vi begynder at stole på AI som en slags autoritet i spørgsmål om alt fra rejseforsikring over klimakrise til emner af mere eksistentiel karakter, risikerer vi nemlig at blive vildledt.
Har du nogensinde skrevet til en chatbot og tænkt: "Wow, den forstår mig faktisk"? Den forstår dig måske oven i købet bedre end selv din partner eller dine bedste venner?
Så er du ikke alene. Et studie fra januar 2025 finder, at to ud af tre deltagere i forsøgene foretrækker svar fra chatbotter fremfor rigtige fagpersoner, fordi de finder chatbotten mere medfølende og forstående.
Oplevelsen er ganske naturlig, om end den baserer sig på en ren illusion. Mennesket er som art programmeret til at søge kontakt med og bekræftelse fra omgivelserne.
Dette forklarer tendensen til, at vi tillægger teknologien menneskelige egenskaber, som den reelt ikke besidder. Når den taler til os på en menneskelignende vis, oplever vi derfor, at den udviser interesse for os. Vi føler os hørt, rørt og berørt.
Dette kaldes også for ELIZA-effekten.
Navnet stammer fra 1960'erne, hvor datalogen Joseph Weizenbaum skabte en af verdens første chatbots.
ELIZA var programmeret til at efterligne en terapeut ved at spejle brugerens egne spørgsmål. Det kunne eksempelvis foregå på denne måde, illustreret herunder:
ELIZA forstod intet. 'Hun' gentog bare mønstre ud fra forudgående programmering. Mange brugere oplevede imidlertid, at ELIZA tilbød dem autentisk dialog.
Selv Weizenbaums egen sekretær, der vidste, at Eliza var blevet programmeret til at tale brugeren efter munden, bad om privatliv, når hun skulle tale 'fortroligt' med programmet.
Prøv selv en version af ELIZA her.
Mennesket har altså en udbredt tendens til at 'antropomorfisere' teknologien: At tillægge den menneskelignende egenskaber.
Dette er også årsagen til, at vi, uden at tænke over det, undskylder til AI, når vi dummer os, takker den for dens hjælp, og føler os set, når den sender en smiley tilbage på en dårlig dag.
Oplevelsen af, at teknologien er på vores side, understøttes desuden af designvalg, som eksempelvis kvindelige navne som Siri, Alexa og ELIZA. Det er navne, der signalerer underdanig imødekommenhed og hjælpsomhed.
Man skulle måske så tro, at jo menneskelignende en chatbot fremstår i dens kommunikation, jo stærkere en tilknytning ville der opstå mellem brugeren og teknologien.
Men dette har overraskende nok vist sig ikke at holde stik.
Den japanske robotforsker Masahiro Moribeskrev i 1970 fænomenet The Uncanny Valley (den uhyggelige dal).
Mori viser, at mennesket kun reagerer positivt på teknologi, der minder om det selv, op til et vist punkt.
Når teknologien ligner næsten 100 procent, men et eller andet udefinerbart (mennesket) alligevel mangler, knækker tiltrækningskurven og der opstår i stedet ubehag.
Og når AI begynder at ligne os for meget - uden at give det nævnte nærvær - opstår en frygt for at den vil kunne manipulere med os.
Dette fænomen var formodentlig medvirkende til at OpenAI i foråret 2025 ændrede ChatGPT's tone, i kølvandet på, at mange brugere var begyndt at ...