Facebook: 15.000 Moderatoren und ein lückenhaftes Regelwerk
Ein paar Dutzend junge Techniker und Anwälte erstellen die Regeln, nach denen rund 15.000 häufig ungelernte Aufseher täglich Milliarden von Beiträgen auf Facebook löschen oder stehen lassen: Das führt laut einem Medienbericht offenbar zu krassen Fehlern in dem sozialen Netzwerk.

"Man hat das Gefühl, jemanden durch Unterlassung getötet zu haben": So beschreibt ein Moderator die Situation, wenn er auf Facebook aufgrund lückenhafter oder falscher Vorgaben einen Beitrag stehen lassen musste, der möglicherweise zu realer Gewalt führt.
Für die rund 15.000 Moderatoren gehört das offenbar zum Alltag - das schreibt jedenfalls die New York Times. Die Zeitung hat mit Mitarbeitern gesprochen und Dokumente zugespielt bekommen, in denen die Vorgaben für das Entfernen oder Stehenlassen von Beiträgen der über zwei Milliarden Nutzer aufgeführt sind.
Laut dem Bericht arbeiten lediglich ein paar Dutzend überwiegend junge Anwälte und Techniker in der Zentrale von Facebook an dem Regelwerk, das den oftmals bei externen Firmen angestellten Moderatoren als Basis für ihre Entscheidungen dient. Die New York Times hat nach eigenen Angaben zahlreiche Lücken und Fehler in den wild zusammengewürfelten, überwiegend aus Excel- und Powerpoint-Dateien bestehenden Dokumenten gefunden.
In Indonesien sind Spendenaufrufe für die Opfer eines Vulkanausbruchs fälschlicherweise abgebrochen worden, weil eine der beteiligten Gruppen auf einer internen Liste von Facebook stand. In Myanmar wiederum konnte eine Terroristengruppe, die des Völkermords beschuldigt wird, monatelang ungestört Hass verbreiten.
Die Moderatoren in diesen Ländern müssen offenbar im Normalfall mit den nur durch Google Translate übersetzten Dokumenten aus der Zentrale arbeiten, die viel zu wenig Kenntnis der lokalen Gegebenheiten hätten. So können Emojis in einem Land Lachen bedeuten, im anderen aber für Mobbing stehen. Noch wesentlich komplexer ist es mit Anspielungen auf Sexualität oder Religion.
Die Moderatoren haben offenbar pro Beitrag nur acht bis zehn Sekunden Zeit für eine Entscheidung, die in der echten Welt große Auswirkungen haben könnte - auch für Facebook: In Indien etwa wurde den Mitarbeitern gesagt, dass Fehlentscheidungen rund um das Thema der Unabhängigkeit der Region Kaschmir dazu führen könnten, dass das soziale Netzwerk in dem ganzen Land gesperrt würde.
In dem Bericht sagt Facebook, die Dokumente seien nur für die Ausbildung der Mitarbeiter gedacht. Eine Sprecherin weist außerdem darauf hin, dass Fehler wegen der Masse an Entscheidungen immer wieder vorkommen würden. Selbst wenn die Mitarbeiter in 99 Prozent der Fälle richtig entschieden, blieben absolut gesehen doch noch viele Fehlurteile übrig.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Ich glaube nicht, dass du das werden möchtest. https://www.sueddeutsche.de/digital...
Hätte man bei so etwas wie dem NetzDG auch aufgenommen, dass diese Löschteams eine...
Oder besonders kryptische Posts mit merkwürdigen Smileys verfassen? Wie kann ich Facebook...
Ein schlechtes Regel Werk wird nicht besser wenn eine ki drüber entscheidet. Und der...