Sollten LLMs zu Pluralität verpflichtet werden?
Sollten die Betreiber also vielleicht zur Perspektivvielfalt verpflichtet werden, wie deutsche Medien? Damit die LLMs, gerade im Politischen, nicht immer nur das sagen, was die User hören wollen oder sollen?
Echte Wahrheit werden LLMs technisch nie erzeugen können, sondern nur wahrscheinlichere Antworten. Die zugrundeliegende Transformertechnologie kommt langsam an die Grenzen ihrer Leistungsfähigkeit. Aber ihr Potenzial ist noch lange nicht ausgeschöpft. Die praktische Anwendung steckt noch in den Kinderschuhen.
Regulierung statt Risiko
Deswegen ist jetzt die beste Zeit, Regeln zu schaffen, die uns ermächtigen, das Potenzial der neuen Technologien zu nutzen, und uns gleichzeitig vor ihren Gefahren bewahren, damit sich die Versäumnisse und Schäden der Social-Media-Ära nicht wiederholen.
Den Companions sollten die Verbraucher nicht so fahrlässig ausgeliefert werden. Das MIT Media Lab spricht(öffnet im neuen Fenster) bei AI nicht umsonst auch von "Addictive Intelligence" . Es geht nicht um ein exklusives Mit oder Ohne, Entweder/Oder. Die Frage ist, was die Technologie leisten soll und was nicht.
Aktuell klafft eine Regelungslücke. Unter dem EU AI Act fallen Chatbots in die "limited risk" -Kategorie (begrenztes Risiko). Daraus folgt aber ein vages Verbot einer in erheblichem Maße schädlichen Manipulation. Was das jedoch konkret heißt, wie schlimm und systematisch etwas sein muss, damit es sanktionsbedürftig ist, bleibt unbestimmt – und Marketing ist davon explizit ausgeschlossen. Politische Werbung auch? Unklar.
Digital Fairness Act als einzige Chance
Über das Aufbauen oder Ausnutzen synthetischer Beziehungen steht dort ebenfalls nichts geschrieben. Auch der DSA, der Digital Services Act, hilft hier nicht. Seine Regeln gelten nur für öffentliche Kommunikation auf Onlineplattformen. Private Chats gehören nicht dazu. Chatbot-Kommunikation noch weniger.
Die vorerst einzige Chance: Der Digital Fairness Act (DFA) der EU, der Verbraucherrechte im Netz stärken soll. Süchtig machendes Design und Dark Patterns sollen bereits darin aufgenommen werden, aber nur im Kontext von Doomscrolling und Onlineshops.
Emotionale KI-Manipulation und Companions sind erst kürzlich und nur dank zivilgesellschaftlicher Anstrengungen zum Thema für den DFA geworden(öffnet im neuen Fenster) . Differenzierter Verbraucherschutz sollte zwischen Chats unterscheiden, in denen nach einem Wunschprodukt gesucht wird ("gut gedämpfte Laufschuhe für Waldwege, Gr. 41, breiter Fuß, bis maximal 80 Euro inklusive Versand") und solchen, in denen gerade therapeutisch gesprochen wird oder eine emotionale Beziehung stattfindet. In Ersteren sollten Preise nicht nach Zahlungsbereitschaft angepasst werden. In Letzteren sollte Werbung grundsätzlich verboten sein.
- Dark Patterns bei KI-Companions: Ist es Liebe oder geht's nur ums Geld?
- Jeder Chatbot schmeichelt dir
- Wer verdienen will, muss freundlich sein
- Dark Patterns machen abhängig
- Wer fragt, der führt
- Mitmachen oder Mittelmäßigkeit
- Demokratie in Gefahr
- Sollten LLMs zu Pluralität verpflichtet werden?
- Download statt Liebesentzug
- Anzeige Hier geht es zu Künstliche Intelligenz: Wissensverarbeitung bei Amazon Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.