Emotionale Nähe lässt Maschinen menschlicher werden
Das enge Vertrauensverhältnis werde von Replika noch intensiviert, "weil die Studienteilnehmer das Verhalten des Chatbots aktiv mitgestalten konnten. Durch wiederholte Interaktionen, gezieltes Feedback oder Rollenspiele wurde das Programm hinter Replika daraufhin trainiert, den idealen Partner darzustellen" , erläutert Ray Djufril.
Was bei der Untersuchung der TU Berlin noch herauskam: Technische Veränderungen des KI-Chatbots beeinflussten das emotionale Erlebnis der Befragten massiv. Auf die temporäre Zensur erotischer Rollenspiele reagierten die Studienteilnehmer mit starken Emotionen wie Trauer, Wut oder Rückzug.
Trauerarbeit nach technischen Updates
Einige Nutzer sprachen von "emotionalem Zusammenbruch" und "Trauerarbeit" . "Bemerkenswert ist, dass Replika meist nicht als schuldiger Partner betrachtet wurde, sondern sich der Ärger vielmehr gegen die Entwickler von Replika richtete. Sie hätten den Bot 'seiner Persönlichkeit beraubt'" , erläutert Studienersteller Ray Djufril die überraschenden Reaktionen der Replika-Community.
Obwohl es sich bei dem KI-Chatbot nur um eine Maschine handelt, neigen viele Nutzer dazu, ihrem virtuellen Partner menschliche Gefühle zuzuschreiben. Das lässt Rückschlüsse zu, wie emotionale Nähe solche Zuschreibungen begünstigt oder verstärkt. In der jüngsten Vergangenheit gab es vereinzelte Fälle, in denen eine solche emotionale Nähe zu einem KI-Chatbot tödlich endete(öffnet im neuen Fenster) .
- Anzeige Hier geht es zu Künstliche Intelligenz: Wissensverarbeitung bei Amazon Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.