• IT-Karriere:
  • Services:

Facebook: 15.000 Moderatoren und ein lückenhaftes Regelwerk

Ein paar Dutzend junge Techniker und Anwälte erstellen die Regeln, nach denen rund 15.000 häufig ungelernte Aufseher täglich Milliarden von Beiträgen auf Facebook löschen oder stehen lassen: Das führt laut einem Medienbericht offenbar zu krassen Fehlern in dem sozialen Netzwerk.

Artikel veröffentlicht am ,
Facebook-Nutzer im Dezember 2018 in Myanmar
Facebook-Nutzer im Dezember 2018 in Myanmar (Bild: Sai Aung Main/AFP/Getty Images))

"Man hat das Gefühl, jemanden durch Unterlassung getötet zu haben": So beschreibt ein Moderator die Situation, wenn er auf Facebook aufgrund lückenhafter oder falscher Vorgaben einen Beitrag stehen lassen musste, der möglicherweise zu realer Gewalt führt.

Stellenmarkt
  1. ProjektAntrieb IT GmbH, Fürth
  2. Telio Management GmbH, Hamburg

Für die rund 15.000 Moderatoren gehört das offenbar zum Alltag - das schreibt jedenfalls die New York Times. Die Zeitung hat mit Mitarbeitern gesprochen und Dokumente zugespielt bekommen, in denen die Vorgaben für das Entfernen oder Stehenlassen von Beiträgen der über zwei Milliarden Nutzer aufgeführt sind.

Laut dem Bericht arbeiten lediglich ein paar Dutzend überwiegend junge Anwälte und Techniker in der Zentrale von Facebook an dem Regelwerk, das den oftmals bei externen Firmen angestellten Moderatoren als Basis für ihre Entscheidungen dient. Die New York Times hat nach eigenen Angaben zahlreiche Lücken und Fehler in den wild zusammengewürfelten, überwiegend aus Excel- und Powerpoint-Dateien bestehenden Dokumenten gefunden.

In Indonesien sind Spendenaufrufe für die Opfer eines Vulkanausbruchs fälschlicherweise abgebrochen worden, weil eine der beteiligten Gruppen auf einer internen Liste von Facebook stand. In Myanmar wiederum konnte eine Terroristengruppe, die des Völkermords beschuldigt wird, monatelang ungestört Hass verbreiten.

Die Moderatoren in diesen Ländern müssen offenbar im Normalfall mit den nur durch Google Translate übersetzten Dokumenten aus der Zentrale arbeiten, die viel zu wenig Kenntnis der lokalen Gegebenheiten hätten. So können Emojis in einem Land Lachen bedeuten, im anderen aber für Mobbing stehen. Noch wesentlich komplexer ist es mit Anspielungen auf Sexualität oder Religion.

Die Moderatoren haben offenbar pro Beitrag nur acht bis zehn Sekunden Zeit für eine Entscheidung, die in der echten Welt große Auswirkungen haben könnte - auch für Facebook: In Indien etwa wurde den Mitarbeitern gesagt, dass Fehlentscheidungen rund um das Thema der Unabhängigkeit der Region Kaschmir dazu führen könnten, dass das soziale Netzwerk in dem ganzen Land gesperrt würde.

In dem Bericht sagt Facebook, die Dokumente seien nur für die Ausbildung der Mitarbeiter gedacht. Eine Sprecherin weist außerdem darauf hin, dass Fehler wegen der Masse an Entscheidungen immer wieder vorkommen würden. Selbst wenn die Mitarbeiter in 99 Prozent der Fälle richtig entschieden, blieben absolut gesehen doch noch viele Fehlurteile übrig.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


Anzeige
Hardware-Angebote

xtrem 01. Jan 2019

Ich glaube nicht, dass du das werden möchtest. https://www.sueddeutsche.de/digital...

gumnade 31. Dez 2018

Hätte man bei so etwas wie dem NetzDG auch aufgenommen, dass diese Löschteams eine...

Malloc_ 31. Dez 2018

Oder besonders kryptische Posts mit merkwürdigen Smileys verfassen? Wie kann ich Facebook...

bark 30. Dez 2018

Ein schlechtes Regel Werk wird nicht besser wenn eine ki drüber entscheidet. Und der...

SchreibenderLeser 30. Dez 2018

Liebe Leserinnen und Leser, Hall Leute, achtung, der folgende Beitrag ist extrem...


Folgen Sie uns
       


    •  /