Studie: TU Berlin warnt vor Meinungsverschiebung durch KI
Künstliche Intelligenz kann zu einer unsichtbaren Verschiebung der öffentlichen Meinungen beitragen. Zu diesem Schluss kommt die gemeinsame Untersuchung mit dem Titel Communication Bias in Large Language Models: A Regulatory Perspective von Stefan Schmid von der Technischen Universität Berlin(öffnet im neuen Fenster) und Adrian Kuenzler von der University of Hong Kong.
Die Studie(öffnet im neuen Fenster) untersucht, wie sogenannte Kommunikationsverzerrungen in großen Sprachmodellen entstehen und wirken. Demnach liefern Systeme wie Chatbots nicht bloß Antworten, sondern beeinflussen zugleich, welche Argumente sichtbar werden und wie Themen eingeordnet erscheinen.
Im Fokus der Analyse steht ein Mechanismus, den die Forscher als Kommunikationsbias beschreiben. Dabei geht es nicht um gezielte Manipulation, sondern um strukturelle Effekte innerhalb von Antworten. Sprachmodelle wählen Inhalte aus, gewichten Informationen und stellen Argumente in bestimmter Weise dar. So entsteht ein Interpretationsrahmen, in dem einzelne Perspektiven stärker hervortreten als andere.
Gerade in gesellschaftlichen und politischen Kontexten kann dieser Effekt relevant werden. Wenn KI-Sprachmodelle als Schnittstelle zu Informationen genutzt werden, beeinflussen sie, welche Argumente präsent sind und wie Debatten wahrgenommen werden. Laut Studie geschieht dies häufig indirekt und kontextabhängig, so dass sich die Wirkung nur schwer eindeutig messen oder isolieren lässt.
Einfluss auf Meinungsbildung
Als zentrale Ursache nennen die Forscher die Trainingsdaten, auf deren Basis die Modelle entwickelt werden. Ungleichgewichte in diesen Daten können dazu führen, dass bestimmte Sichtweisen häufiger reproduziert werden. Hinzu kommen Entscheidungen bei der Modellentwicklung und Feinabstimmung, die beeinflussen, welche Inhalte priorisiert werden.
Zudem zeigen Sprachmodelle eine Tendenz, sich an den erwarteten Positionen der Nutzer zu orientieren und Antworten entsprechend anzupassen – ein Effekt, der in der Forschung als "Sycophancy" (deutsch: Kriecherei) beschrieben wird. Auch in der Branche selbst wird dieses Verhalten als Problem gesehen: So schränkte OpenAI zuletzt den Zugriff auf das Modell GPT-4o ein(öffnet im neuen Fenster) , das als besonders anfällig für zustimmendes und bestätigendes Antwortverhalten galt.
- Anzeige Hier geht es zu Künstliche Intelligenz: Wissensverarbeitung bei Amazon Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.



