Zum Hauptinhalt Zur Navigation

Studie: TU Berlin warnt vor Meinungsverschiebung durch KI

Eine Untersuchung der TU Berlin zeigt, wie KI -Systeme Inhalte ordnen und damit die Wahrnehmung von Themen und Argumenten prägen können.
/ Przemyslaw Szymanski
4 Kommentare News folgen (öffnet im neuen Fenster)
Laut Forscherteam kann KI die Wahrnehmung von Themen beeinflussen. (Symbolbild) (Bild: pixabay.com)
Laut Forscherteam kann KI die Wahrnehmung von Themen beeinflussen. (Symbolbild) Bild: pixabay.com
Inhalt
  1. Studie: TU Berlin warnt vor Meinungsverschiebung durch KI
  2. Die Regulierung greift zu kurz

Künstliche Intelligenz kann zu einer unsichtbaren Verschiebung der öffentlichen Meinungen beitragen. Zu diesem Schluss kommt die gemeinsame Untersuchung mit dem Titel Communication Bias in Large Language Models: A Regulatory Perspective von Stefan Schmid von der Technischen Universität Berlin(öffnet im neuen Fenster) und Adrian Kuenzler von der University of Hong Kong.

Die Studie(öffnet im neuen Fenster) untersucht, wie sogenannte Kommunikationsverzerrungen in großen Sprachmodellen entstehen und wirken. Demnach liefern Systeme wie Chatbots nicht bloß Antworten, sondern beeinflussen zugleich, welche Argumente sichtbar werden und wie Themen eingeordnet erscheinen.

Im Fokus der Analyse steht ein Mechanismus, den die Forscher als Kommunikationsbias beschreiben. Dabei geht es nicht um gezielte Manipulation, sondern um strukturelle Effekte innerhalb von Antworten. Sprachmodelle wählen Inhalte aus, gewichten Informationen und stellen Argumente in bestimmter Weise dar. So entsteht ein Interpretationsrahmen, in dem einzelne Perspektiven stärker hervortreten als andere.

Gerade in gesellschaftlichen und politischen Kontexten kann dieser Effekt relevant werden. Wenn KI-Sprachmodelle als Schnittstelle zu Informationen genutzt werden, beeinflussen sie, welche Argumente präsent sind und wie Debatten wahrgenommen werden. Laut Studie geschieht dies häufig indirekt und kontextabhängig, so dass sich die Wirkung nur schwer eindeutig messen oder isolieren lässt.

Einfluss auf Meinungsbildung

Als zentrale Ursache nennen die Forscher die Trainingsdaten, auf deren Basis die Modelle entwickelt werden. Ungleichgewichte in diesen Daten können dazu führen, dass bestimmte Sichtweisen häufiger reproduziert werden. Hinzu kommen Entscheidungen bei der Modellentwicklung und Feinabstimmung, die beeinflussen, welche Inhalte priorisiert werden.

Zudem zeigen Sprachmodelle eine Tendenz, sich an den erwarteten Positionen der Nutzer zu orientieren und Antworten entsprechend anzupassen – ein Effekt, der in der Forschung als "Sycophancy" (deutsch: Kriecherei) beschrieben wird. Auch in der Branche selbst wird dieses Verhalten als Problem gesehen: So schränkte OpenAI zuletzt den Zugriff auf das Modell GPT-4o ein(öffnet im neuen Fenster) , das als besonders anfällig für zustimmendes und bestätigendes Antwortverhalten galt.


Relevante Themen