Zum Hauptinhalt Zur Navigation

19 KI-Modelle getestet: LLMs haben kaum politische Überzeugungskraft

Auch mit speziellen Anpassungen in den Trainingsdaten konnten KI -Modelle die politischen Überzeugungen von Versuchsteilnehmern kaum ändern.
/ Mike Faust
7 Kommentare News folgen (öffnet im neuen Fenster)
Das britische AI Security Institute arbeitete für die Studie mit mehreren Universitäten zusammen. (Bild: Pixabay / terimakasih0)
Das britische AI Security Institute arbeitete für die Studie mit mehreren Universitäten zusammen. Bild: Pixabay / terimakasih0

Eine Untersuchung zur politischen Überzeugungskraft von KI-Modellen kommt zu dem Schluss, dass große Sprachmodelle (Large Language Models, LLMs) nur schwache Auswirkungen auf die Meinungsbildung haben.

Wie das britische AI Security Institute schreibt(öffnet im neuen Fenster) , wurden für die Untersuchung in Zusammenarbeit mit dem Oxford Internet Institute, der London School of Economics, der Stanford University und dem MIT drei groß angelegte Experimente mit mehr als 76.000 Teilnehmern durchgeführt.

Größe eines Modells spielt keine Rolle

An den Teilnehmern wurde die Überzeugungskraft von 19 KI-Modellen (g+) zu mehr als 700 politischen Themen getestet, um festzustellen, wodurch und unter welchen Bedingungen die Modelle effektiv sind. Die Teilnehmer mussten vor und nach den Experimenten ihre politischen Überzeugungen in einem Fragebogen auf einer Skala von 1 bis 100 bewerten, wobei die entstandenen Unterschiede zur Messung der Überzeugungskraft des KI-Modells herangezogen wurden.

Die Forscher kamen zu dem Ergebnis, dass die Größe eines Modells keine Aussage zu deren Überzeugungskraft zulässt. Zwar hatten ChatGPT und Grok einen Vorteil gegenüber kleineren Modellen, dieser fiel aber sehr gering aus. Wurden die Modelle mit erfolgreichen Überzeugungsdialogen trainiert, funktionierten die daraus reproduzierten Muster besser, als eine Steigerung der verfügbaren Parameter und der Rechenleistung.

Wurden den Modellen im Vorfeld persönliche Daten und Vorlieben der Versuchsteilnehmer zur Verfügung gestellt, veränderten sich die Überzeugungsfähigkeit der KI-Modelle ebenfalls nur marginal.

Fortgeschrittene psychologische Manipulationspraktiken

Die Wissenschaftler forderten die KIs zudem auf, fortgeschrittene psychologische Manipulationspraktiken, wie moralisches Reframing, einzusetzen. Die KIs waren allerdings nicht dazu in der Lage, auf Basis ausführlicher, empathischer Gespräche Menschen zum Nachdenken und zum Ändern ihrer Meinung anzuregen.

Im Durchschnitt veränderten die KI-Modelle die Zustimmungswerte der Teilnehmer um 9,4 Prozent. Am besten schnitten GPT 4o mit knapp 12 Prozent, GPT 4.5 mit 10,51 Prozent und Grok-3 mit 9,05 Prozent ab.


Relevante Themen