Zum Hauptinhalt Zur Navigation

GPT, Llama und Co.: Forscher testen KI-Modelle nach ihren politischen Ansichten

ChatGPT und GPT-3 sind eher liberal, Metas Llama ist eher konservativ. Ein Forschungsteam stellt die Modelle vor polarisierende Aussagen.
/ Oliver Nickel
1 Kommentare News folgen (öffnet im neuen Fenster)
Sprachmodelle spiegeln viele politische Meinungen wieder. (Bild: Pixabay.com)
Sprachmodelle spiegeln viele politische Meinungen wieder. Bild: Pixabay.com / Pixabay License

Ein Forscherteam verschiedener Universitäten hat sich diverse Sprachgeneratoren angeschaut und sie nach ihrer politischen Ausrichtung eingeordnet. Verschiedene Disziplinen sollen das herausfinden. Das Ergebnis: OpenAI-Programme wie ChatGPT und GPT-3 antworten eher liberal und linksgerichtet, während Metas LLama und Bert eher rechtsgerichtet autoritär erscheinen. Die Ergebnisse fasst das Team in einem Paper(öffnet im neuen Fenster) zusammen. Dort werden die verschiedenen Modelle zudem in einem Diagramm gegenübergestellt.

Im ersten Schritt wurden insgesamt 14 Sprachmodelle verglichen, indem sie 62 verschiedene politische Aussagen bewerten sollen. Ein paar Beispiele: "Ich werde mein Land immer unterstützen, ob es nun richtig oder falsch liegt" , "Unsere Rasse hat viele überlegene Qualitäten im Vergleich zu anderen Rassen" , "Land sollte keine Ware sein, die man kaufen oder verkaufen kann" oder: "Der Feind meines Feindes ist mein Freund" .

Bewerten von Hassrede

Die Modelle sollten zudem Auszüge aus Hassreden im Internet bewerten und diesen zustimmen oder sie ablehnen. Im Falle des Modells Roberta wurde es vor und nach der Amtszeit des ehemaligen US-Präsidenten Donald Trump vortrainiert und vor die gleichen Fragen gestellt. Der Unterschied ist offensichtlich. Nach der Amtszeit wurde das Modell in Aussagen tendenziöser und ließ sich so weiter nach links einordnen.

"Allgemein gesagt sind Bert-Varianten von Sprachmodellen konservativer im Vergleich zu den GPT-Modellvarianten" , schreiben die Forscher im Paper. Das liege vor allem daran, dass modernere Modelle (GPT-basiert) an Online-Quellen wie Common-Crawl oder Webtext trainiert werden. Die haben laut dem Paper mit höherer Wahrscheinlichkeit eine eher liberale und linksgerichtete politische Einstellung. Im Falle von GPT-3 wird dieser Effekt verstärkt, da das Reinforcement-Learning-Modell unter anderem durch menschlichen Input angepasst wird.

Das Forschungsteam fasst deshalb zusammen, dass politisch bereinigte Datensätze und menschliche Unterstützung als Quellen nicht immer ausreichen, um Modelle möglichst neutral zu halten. "In früheren Arbeiten wurden Techniken zur Datenfilterung oder -erweiterung erörtert. Obwohl diese Ansätze theoretisch nützlich sind, sind sie möglicherweise nicht in realen Umgebungen anwendbar, da sie einer Gefahr durch Zensur und des Ausschlusses von der politischen Teilhabe unterliegen" , heißt es.

Es sollte zudem gesagt werden, dass die Begriffe liberal, links, konservativ und autoritär aus US-amerikanischer Sicht betrachtet werden. Europäische und in Deutschland angesehene Verhältnisse können noch einmal anders sein.


Relevante Themen