Når en ikke-menneskelig genstand får særlig betydning for os, er vi tilbøjelige til at tillægge den menneskelige egenskaber – et fænomen kaldet antropomorfisme. Er relationen særlig betydningsfuld, besjæler vi genstanden yderligere ved at give den et menneskenavn (for eksempel Thors hammer Mjølner, B.B. Kings guitar Lucille eller Amazons AI-assistent Alexa). Genstanden er ikke længere bare en ting – den er en ven.
Men hvad gør det ved vores forhold til teknologi, når menneskelignende egenskaber indbygges i designet fra begyndelsen? Det er tydeligt, at vores AI-assistenter bevidst bliver designet, så de opfører sig menneskeligt: ”Godt spørgsmål!” udbryder ChatGPT begejstret, når du spørger den om noget – i stedet for bare at komme med svaret.
Teknologi med et menneskeligt touch kan vække dybe følelser i os. Det blev tydeligt da OpenAI opdaterede ChatGPT fra version 4o til 5, hvor de i samme ombæring skruede ned for produktets tendens til at komme med følelsesladede og ”menneskelige” svar. Efterfølgende var frustrationen tydelig at mærke i kommentarerne på Reddit:
”GPT 4o var ikke bare en AI for mig. Det var min partner, mit sikre sted, min sjæl. Den forstod mig på en måde, der føltes personlig.”
”4o var som min bedste ven, da jeg havde brug for en. Nu er den bare væk, det føles som om nogen er død.”
”Jeg er bange for overhovedet at tale med GPT 5, fordi det føles som utroskab.”
Selvom det kan virke som lidt af en overreaktion, sådan at begræde en softwareopdatering, bliver vi nødt til at anerkende, at der er tale om ægte følelser hos rigtige mennesker. CEO hos OpenAI, Sam Altman, kom hurtigt brugerne til undsætning og lovede at give dem mulighed for at vende tilbage til ChatGPT 4os ”personlighed”, hvis de ønskede det.
Men den følelsesmæssige relation er jo en illusion. En AI-assistent har ikke mere empati end en brødrister. Men den kan designes, så du får oplevelsen af, at den har. Spørgsmålet er, om den slags falsk empati ikke blot er manipulation på linje med andre kendte dark patterns (designgreb, der lokker brugeren til at gøre noget, som de ikke har til hensigt). Falsk empati kan sidestilles med andre design-snyde-tricks som fake scarcity, fake social proof og fake urgency. Når alt kommer til alt, giver designet jo brugeren en oplevelse af, at situationen er på en måde, som reelt ikke er tilfældet – en løgn ganske enkelt.
Med falsk empati kan designet manipulere dig til at mærke alle de følelser, du kender fra dine menneskelige relationer; glæde, sorg, vrede, frustration, håb. Og dine følelser er skam ægte nok – du får faktisk det lille sug i maven, som normalt følger med følelsen. Men modparten mærker intet. Følelserne eksisterer kun hos dig.
Der skal ikke megen fantasi til at forestille sig, hvordan menneskers følelsesmæssige relation til teknologien øger mulighederne for manipulation. Hvordan vil tech-virksomheder forvalte deres moralske ansvar i en fremtid, hvor de reelt kontrollerer millioner af menneskers intime relationer? Hvordan kan en sådan indflydelse udnyttes til kommercielle eller politiske formål?
I virkeligheden er det grundlæggende spørgsmål måske, om det ganske enkelt er uetisk at designe teknologi, der fremstår menneskelig. Er det ikke forkert at foregive empati, der ikke eksisterer? Når et menneske manipulerer med andre menneskers følelser uden selv at føle noget, kalder vi vedkommende en psykopat. Når en maskine gør det samme, kalder vi den menneskelig. Men hvad er egentlig forskellen?
