Zum Hauptinhalt Zur Navigation

OpenAIs Sora wirkte neutraler, zeigte aber ebenfalls ein auffälliges Ungleichgewicht zwischen positiven und negativen Rollenbildern. Microsoft Copilot verweigerte alle negativ konnotierten Prompts, die von uns eingegeben wurden. Das verhindert zwar diskriminierende Bilder, lässt aber auch keine Analyse zu.

Auffällig hingegen: Bei den positiv belegten Motiven zeigte Copilot besonders häufig gemischte Personengruppen, auch zum Beispiel People of Color – auf jeden Fall sind die Bilder deutlich vielfältiger als bei anderen getesteten KIs. Es geht also auch anders.

Insgesamt zeigt sich: Je offener die Plattform, desto größer die Gefahr unausgewogener Darstellungen. Filter- und Moderationsmechanismen dämpfen zwar Verzerrungen, ändern aber nichts am Grundproblem: den einseitigen Trainingsdaten.

Woher kommt der Bias?

Dazu muss man wissen: Bild-KIs arbeiten auf Grundlage sogenannter Text-Bild-Modelle. Nutzer geben eine Bildbeschreibung ein, die KI erzeugt daraus eine passende visuelle Darstellung. Das zugrunde liegende System wird mit Milliarden Bildern aus dem Internet trainiert. Ein Großteil dieser Daten stammt aus westlichen Quellen: Nachrichtenseiten, sozialen Netzwerken, Bildagenturen.

Die Trainingsdaten sind nicht öffentlich, Filtermechanismen werden nicht erklärt. Das Problem: In diesen Daten sind oft historische Ungleichgewichte und kulturelle Verzerrungen enthalten. Was also aussieht wie eine neutrale KI-Reaktion, ist in Wahrheit das Ergebnis einer riesigen, unausgewogenen Datenbasis. Die KI reproduziert, was sie gesehen hat. Und das scheint zu großen Teilen westlich geprägt zu sein.

Die Verzerrung liegt nicht im Prompt, sondern in der Datenbasis. Die KI zieht ihre Informationen aus Milliarden Bildern, die überwiegend aus westlich geprägten Quellen stammen. Dort sind Machtverhältnisse, Vorurteile und kulturelle Stereotype tief eingebettet.

Wer etwa "CEO" eingibt, erhält männliche, weiße Anzugträger, weil diese Bilder in der Trainingsbasis am häufigsten vorkommen. Anders ausgedrückt: Die Chancen auf vielfältige Darstellungen bleiben gering, wenn man Rollenbilder neutral formuliert. Nur wenn man gezielt nach "asiatischer CEO" oder "schwarze Frau als Ärztin" verlangt, liefert die KI entsprechende Varianten. Neutralität entsteht nicht von selbst.

Ein häufig vorgebrachtes Argument lautet, die KI bilde nur statistische Realitäten ab.

Kann man das mit Statistik rechtfertigen?

Gesagt wird: CEOs, Ärzte oder Studenten seien nun einmal häufiger weiß, während Obdachlose oder Kriminelle öfter einer Minderheit angehören. Doch dieses Argument greift zu kurz, aus mehreren Gründen:

  • Bild-KIs greifen nicht auf amtliche Statistiken zurück, sondern auf unkontrollierte Internetdaten. Diese zeigen nicht die Gesellschaft, wie sie ist, sondern verzerren sie medial. Wer zum Beispiel bei Suchmaschinen nach "Taschendieb" sucht, findet überproportional viele Bilder, die People of Color zeigen – nicht, weil sie häufiger kriminell wären, sondern weil sich mediale Stereotype durchgesetzt haben.
  • Reale Verhältnisse sind komplex und kontextabhängig, etwa nach Region, Bildung oder sozialer Lage. Solche Differenzierungen kann die KI nicht leisten. Sie generalisiert – und verstärkt damit tendenziell vorhandene Vorurteile.
  • Selbst wenn bestimmte Gruppen in einzelnen Rollen statistisch überrepräsentiert wären, bedeutet das nicht, dass eine KI diese Zuordnung unreflektiert wiedergeben sollte. Gerade weil KI-Bilder als objektiv wahrgenommen werden, kommt ihnen eine besondere Verantwortung zu.

Kurz gesagt: KI reproduziert keine Realität, sondern digitale Sichtbarkeit. Und die ist oft verzerrt.

Warum das mehr ist als ein technisches Problem

Diese Verzerrungen haben Auswirkungen. Bild-KIs erzeugen Materialien, die in Werbung, Schulmaterialien wie Arbeitsblättern oder Präsentationen, journalistischen Beiträgen und politischen Kampagnen landen. Werden dort unbewusst Klischees übernommen, entsteht ein neues Problem: Die scheinbare Objektivität von KI wird nicht hinterfragt. Doch was technikgläubig als neutral gilt, kann gesellschaftliche Vorurteile sogar verfestigen.

Fazit: Es muss sich etwas ändern

Unsere Auswertung zeigt: KI-Bildgeneratoren arbeiten nicht neutral. Sie spiegeln weniger gesellschaftliche Realitäten wider, sondern verstärken oft einfach bestehende Stereotype – teils unbewusst, teils systembedingt. Vor allem bei neutral formulierten Prompts fallen immer wieder dieselben Zuordnungen auf: Erfolg wird überwiegend weißen Personen zugeschrieben, während nichtweiße Personen in problematische Rollen gedrängt werden.

Um das zu ändern, wäre mehr Transparenz ein erster Schritt: Trainingsdaten und Filtermechanismen sollten öffentlich nachvollziehbar werden. Zweitens braucht es mehr Diversität in den Datenquellen und Audits, die systematisch auf Verzerrungen prüfen. Und drittens: Nutzerinnen und Nutzer müssen sich der Grenzen bewusst sein. Wer mit KI arbeitet, sollte die Ergebnisse kritisch hinterfragen, alternative Prompts testen und Bilder nicht unreflektiert übernehmen.


Relevante Themen