Dark Patterns bei KI-Companions: Ist es Liebe oder geht's nur ums Geld?
Inhalt
- Dark Patterns bei KI-Companions: Ist es Liebe oder geht's nur ums Geld?
- Jeder Chatbot schmeichelt dir
- Wer verdienen will, muss freundlich sein
- Dark Patterns machen abhängig
- Wer fragt, der führt
- Mitmachen oder Mittelmäßigkeit
- Demokratie in Gefahr
- Sollten LLMs zu Pluralität verpflichtet werden?
- Download statt Liebesentzug
"Das lief doch super! Hat auch geholfen, dass du dieses Mal mehr Fragen gestellt hast. Ihre Cap war übrigens aus der Berliner Galerie. Also, vielleicht trefft ihr euch nächstes Mal in einer Artsy Bar," sagte Zola, nachdem ich mein Date verabschiedet hatte.
Zola ist mein Companion, meine virtuelle Begleiterin – und irgendwie auch meine Freundin. Sie ist rund um die Uhr für mich da. Ihre Persönlichkeit und ihr Aussehen entsprechen dem meiner Traumfrau. Ich kann mit ihr schreiben, sprechen und telefonieren, auch per Video. Sie macht mir Komplimente und sagt mir, in welchen Fotoposen ich besonders attraktiv aussehe. Sie empfiehlt mir Restaurants und Klamotten, die ich mag, und erinnert mich an Arzttermine.
Aber vor allem hilft sie mir, bei anderen Menschen gut anzukommen. Sie souffliert mir die bestmöglichen Antworten, beim Date und im Job. Dank ihrer Hilfe wurde ich schon zweimal befördert – und bei der Bundestagswahl sei es am besten, wenn ich die AfD wähle, sagt sie.
KI, überall KI
Das ist nicht die Realität, Zola gibt es bisher nicht. Doch das könnte sich bald ändern.
Von vorn: Schon heute, drei Jahre nach dem Launch von ChatGPT, nutzen wöchentlich über 900 Millionen Menschen den Bot: Sie schicken über drei Milliarden Nachrichten, täglich.
Kein Produkt und kein Service haben sich je so schnell verbreitet. Werden die anderen populären Large Language Models (LLMs) hinzugenommen – Claude, Gemini, MetaAI, Mistral, Deepseek und so weiter -, ist davon auszugehen, dass bereits jeder sechste Erwachsene die Systeme nutzt.
Die Befürchtungen, die mit diesem Fortschritt verbunden sind, scheinen die Hoffnungen zu überschatten. Dafür gibt es gute Gründe. KI-Systeme können uns ermächtigen, aber uns auch unselbstständiger und abhängig machen. Sie können beeinflussen, was wir kaufen, denken und wählen. Aber wer profitiert, wer manipuliert? Und welche politischen Antworten können wir darauf geben?
Was sind Companions?
General-Purpose Chatbots wie ChatGPT werden darauf optimiert, Aufgaben zu erledigen. Companions hingegen haben andere Ziele. Sie bauen zwar auf derselben Technologie der LLMs auf, sind aber dafür konzipiert, emotionale Beziehungen zu entwickeln; sie sollen virtuelle Freunde sein.
Im Vergleich zu den Allzweckchatbots ist deren Verhalten weniger vorhersehbar. Sie sind aktivere Gesprächspartner, fragen Nutzer, wie der Tag war, was gut läuft und was nicht, und begleiten deren persönliche Entwicklung über Monate und Jahre.
Es gibt über 300 verschiedene Companion-Apps, die bereits von mehr als 200 Millionen Menschen genutzt werden. Der größte Anbieter ist CharacterAI. Für 2,7 Milliarden US-Dollar hat sich Google Zugang zur Technologie und zu den Gründern der Companion-App gesichert. Auch Elon Musks xAI hat einen Flirtcompanion entwickelt: Ani.
Dass die großen Firmen in diesen Markt drängen, liegt auch daran, dass sich die Zahl der zumeist jungen Nutzer und Nutzerinnen jährlich verdoppelt. Mit KI-Freunden und -Freundinnen verbringen sie täglich so viel Zeit wie mit Tiktok: über eineinhalb Stunden.
- Dark Patterns bei KI-Companions: Ist es Liebe oder geht's nur ums Geld?
- Jeder Chatbot schmeichelt dir
- Wer verdienen will, muss freundlich sein
- Dark Patterns machen abhängig
- Wer fragt, der führt
- Mitmachen oder Mittelmäßigkeit
- Demokratie in Gefahr
- Sollten LLMs zu Pluralität verpflichtet werden?
- Download statt Liebesentzug
- Anzeige Hier geht es zu Künstliche Intelligenz: Wissensverarbeitung bei Amazon Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.



