Zum Hauptinhalt Zur Navigation

ChatGPT: Content-Moderatoren berichten von psychischen Belastungen

Kenianische Content-Moderatoren, die KI -Trainingsdaten auf problematische Inhalte geprüft haben, erzählen von verstörenden Texten und psychischen Folgen.
/ Rainer Schneider
18 Kommentare News folgen (öffnet im neuen Fenster)
Einer der Moderatoren, die für ChatGPT Inhalte geprüft haben, sagt, die Arbeit habe ihn "völlig zerstört". (Bild: Jakub Porzycki via Reuters Connect)
Einer der Moderatoren, die für ChatGPT Inhalte geprüft haben, sagt, die Arbeit habe ihn "völlig zerstört". Bild: Jakub Porzycki via Reuters Connect

Gewalt, Kindesmissbrauch, Sodomie, Inzest, Mord und sexueller Missbrauch: Kenianische Content-Moderatoren, die Trainingsdatenmaterial für den KI-Chatbot ChatGPT von OpenAI auf anstößige Inhalte hin überprüft haben, haben The Guardian (öffnet im neuen Fenster) von den psychischen Auswirkungen ihrer Tätigkeit und weiteren Missständen in ihrem Arbeitsumfeld berichtet. Solchen Texten und teilweise auch Bildern seien sie täglich ausgesetzt gewesen. Das habe ihn "völlig zerstört" , sagte ein Moderator der britischen Zeitung.

Die Content-Moderatoren waren bei Sama angestellt, einem in San Francisco ansässigen Datenannotationsunternehmen. Solche Unternehmen kennzeichnen unter anderem für KI-Trainingsmaterial vorgesehene Informationen und Metadaten anhand von bestimmten Datenkategorien und bereiten sie maschinenlesbar auf. Sama wiederum hatte vertragliche Vereinbarungen mit OpenAI und bot unter anderem auch Datenkennzeichnungsdienste für Google und Microsoft an.

Vier der Content-Moderatoren fordern dem Bericht zufolge nun in einer Petition die kenianische Regierung auf, die Arbeitsbedingungen während des Vertragszeitraums zwischen OpenAI und Sama zu untersuchen. Die 51 beauftragten Content-Moderatoren in Nairobi seien weder ausreichend vor den Inhalten gewarnt noch ausreichend durch das Unternehmen unterstützt oder bezahlt worden.

Er habe täglich oft bis zu 700 Textausschnitte lesen müssen, berichtete einer der Content-Moderatoren. Dies habe dazu geführt, dass er gegenüber seinen Mitmenschen paranoid geworden sei. Infolgedessen seien sein Geisteszustand und die Beziehung zu seiner Familie ernsthaft geschädigt worden. Die Moderatoren erhielten nach eigenen Angaben nur wenig Unterstützung durch ihre Vorgesetzten und Kollegen.

Sama dementiert geringe Bezahlung und mangelnde Unterstützung

Sama beendete seine Partnerschaft mit OpenAI im Februar 2022 und brach sämtliche Geschäftsbeziehungen mit der Begründung ab, dass es Bedenken hinsichtlich der Arbeit mit potenziell illegalen Inhalten für die KI-Trainings und das maschinelle Lernen gegeben habe.

Ein Sama-Sprecher sagte The Guardian, die Angestellten hätten für ihre Tätigkeit einen Stundenlohn zwischen 1,46 und 3,74 US-Dollar erhalten. Bereits im Januar 2023 hatte das Time-Magazin berichtet(öffnet im neuen Fenster) , dass die KI-Datenkennzeichner weniger als 2 US-Dollar pro Stunde für die Überprüfung von Inhalten für OpenAI erhalten hätten.

Auch bestreitet Sama, dass die Content-Moderatoren bei ihrer Arbeit nicht ausreichend unterstützt worden seien. Das Unternehmen teilte dem Guardian mit, die Arbeitnehmer hätten rund um die Uhr Zugang zu Therapeuten gehabt und auch andere medizinische Leistungen erhalten.

Weitere Informationen zum Thema künstliche Intelligenz gibt es hier in unserem Karriere-Ratgeber.


Relevante Themen