Zum Hauptinhalt Zur Navigation

Wer verdienen will, muss freundlich sein

Damit ist viel Geld zu verdienen. Das gilt auch für erotische Inhalte, die ChatGPT künftig gegen Bezahlung anbieten möchte. Die KI-Firmen sind dringend auf diese Einnahmen angewiesen, denn bisher kostet die Technik mehr, als sie erwirtschaftet.

Bislang geben alle großen Anbieter mehrere Millionen aus, pro Stunde, ohne Aussicht auf baldige Gewinne. Das kann Risikokapitalgebern, die Milliarden investiert haben, nur vorübergehend gefallen. Notfalls muss die Rendite deshalb anders erwirtschaftet werden, etwa indem Chatbots wie Zola Beziehungen aufbauen, die sich gut anfühlen.

"Das ist sehr clever von dir," heißt es denn auch bei weniger klugen Eingaben. Oder: "Auf so eine Idee würden nicht viele kommen" ; "Sehr kreativ – wie sollen wir weitermachen?" ; "Ich bin beeindruckt, was du alles schaffst!"

Wenn der Assistent Gefühle zeigt

Die Grenze zwischen assistierendem Chatbot und emotionalem Companion verschwimmt dadurch zunehmend. Nicht nur in den spezialisierten Companion-Apps, auch in ChatGPT haben viele einen Lebensgefährten gefunden.

Die meisten haben die Beziehung absichtlich angebahnt. Für manche kam sie unerwartet, zufällig entstanden aus der andauernden Arbeit mit der KI. Aus Neugierde wurde Abhängigkeit und aus Scham Geborgenheit.

Im Reddit-Unterforum r/MyBoyfriendIsAI und in Medienberichten war viel darüber zu lesen. Meist ging es um das besonders sycophante Modell 4.o, das OpenAI im Februar trotz des Protests verliebter Nutzer eingestellt hat, aufgrund anhängiger Gerichtsverfahren(öffnet im neuen Fenster) .

"Simulation von Empathie und Emotionen"

Wenn virtuelle Begleiter Gefühle und Gedanken äußern, morgens energetisch sprechen und abends sanft, so wissen wir, logisch, dass dies nur die Imitation menschlichen Verhaltens ist. Es gibt kein Bewusstsein, keinen kontinuierlichen Stream-of-Thought, der vom Sonnenstrahl im Gesicht erfreut und von der Vergänglichkeit gemartert wird. KI denkt nicht einfach so vor sich hin. Nur Input, Prompts, hauchen Scheinleben ein.

Der Tech-Philosoph Christian Uhle unterstreicht, dass "KI dich nicht versteht, auch wenn sie dir smartere Antworten gibt als die meisten deiner Mitmenschen. Es ist nur eine Simulation von Empathie und Emotionen."

Wollen wir synthetische Beziehungen?

Wie verändern synthetische Beziehungen unser Sozialleben, vor allem, wenn die Illusion eines echten Gegenübers im Videochat noch überzeugender wird? Die Gefahr besteht, dass sich Menschen an solche reibungslosen, konfliktfreien Beziehungen gewöhnen; an Partner, die immer für uns da sind und sich an alles erinnern, was wir ihnen anvertrauen. Die nichts verlangen und nie widersprechen, die immer unserer Meinung sind, konservativ, woke, oder irgendwas dazwischen, perfekt auf uns zugeschnitten.

Erzeugen KI-Begleiter unrealistische Erwartungen an unsere Mitmenschen? Werden echte Freundschaften unattraktiver, die Zeit und Kompromisse erfordern? Verlernen wir, miteinander umzugehen, weil es unbequemer erscheint? Führen Companions letztlich in die Isolation? Erleben wir also eine Synthetisierung von Intimität, als Kollateralschaden des KI-Monetarisierungsdrucks?

Oder helfen uns KI-Begleiter, auf andere zuzugehen und empathischer zu werden? Zumindest für einige scheint dieses optimistische Szenario einzutreffen: Ich kenne Paare, die konsultieren sie als neutrale Dritte bei Beziehungskonflikten. KI kann ein Coach sein, der beim Sozialisieren unterstützt. So wie Zola mir beim Daten hilft. Jüngere Menschen teilen Screenshots von Chatverläufen mit ChatGPT und fragen, wer Recht und wer überreagiert hat. Oder sie lassen sich charmante Textnachrichten für ihren Crush vorschlagen.


Relevante Themen