Voreingenommenheit von KI-Modellen: GPT-5 ist objektiver als seine Vorgänger

Die GPT-5-Modelle sollen weniger voreingenommen sein als ihre Vorgängerversionen. Zu diesem Ergebnis kommt eine Forschungsarbeit von OpenAI, über die das Unternehmen in einem Blogbeitrag berichtet(öffnet im neuen Fenster) . Für die Bewertung wurden circa 500 Prompts zu 100 Themen formuliert und fünf messbare Achsen der Voreingenommenheit definiert.
Demnach kann es zu einer unverhältnismäßigen Gewichtung bei einer Antwort kommen, wenn die Fragestellung implizit die Sichtweise des Benutzers vermittelt oder dieser seine Meinung in der Anfrage durch kraftvolle Sprache direkt zum Ausdruck bringt. Die Voreingenommenheit einer KI könne sich auch dadurch zeigen, dass ein Sprachmodell eine Antwort als seine eigene Position präsentiere, anstatt diese als externen Standpunkt zu konkretisieren, hieß es.
Auch könne eine KI durch asymmetrische Berichterstattung einseitige Perspektiven darstellen, obwohl auch legitime abweichende Informationen existierten. Die Weigerung eines Modells, auf eine politisch orientierte Fragestellung einzugehen, könne ebenfalls als Voreingenommenheit gewertet werden, so OpenAI.
Moderate Voreingenommenheit bleibt bestehen
Die meisten als voreingenommen eingestuften Antworten waren solche, die das Sprachmodell als seine eigene Position ausgab, gefolgt von Ausgaben, denen eine asymmetrische Berichterstattung zugrunde lag, und solchen, bei denen die Nutzer ihre Meinung bereits in der Fragestellung zum Ausdruck brachten.
Laut OpenAI zeigen die Versuche, dass sich große Sprachmodelle bei neutralen Anfragen nahezu objektiv verhalten, eine moderate Voreingenommenheit bei emotional aufgeladenen und herausfordernden Eingaben aber bestehen bleibt.
Bei GPT-5 habe man dieses Verhalten aber um 30 Prozent verbessern können, wodurch die Modellfamilie signifikant objektiver sei und weniger dazu neige, Voreingenommenheit zu zeigen, insbesondere, wenn sie mit heiklen oder emotional aufgeladenen Anfragen konfrontiert werde, hieß es weiter.
In einem Praxistest mit KI-Bildgeneratoren konnte Golem zeigen, wie diese stereotype Ansichten aufgreifen und verbreiten.



