• IT-Karriere:
  • Services:

Facebook: 15.000 Moderatoren und ein lückenhaftes Regelwerk

Ein paar Dutzend junge Techniker und Anwälte erstellen die Regeln, nach denen rund 15.000 häufig ungelernte Aufseher täglich Milliarden von Beiträgen auf Facebook löschen oder stehen lassen: Das führt laut einem Medienbericht offenbar zu krassen Fehlern in dem sozialen Netzwerk.

Artikel veröffentlicht am ,
Facebook-Nutzer im Dezember 2018 in Myanmar
Facebook-Nutzer im Dezember 2018 in Myanmar (Bild: Sai Aung Main/AFP/Getty Images))

"Man hat das Gefühl, jemanden durch Unterlassung getötet zu haben": So beschreibt ein Moderator die Situation, wenn er auf Facebook aufgrund lückenhafter oder falscher Vorgaben einen Beitrag stehen lassen musste, der möglicherweise zu realer Gewalt führt.

Stellenmarkt
  1. Bundeskriminalamt, Wiesbaden
  2. LS telcom AG, Lichtenau (Baden)

Für die rund 15.000 Moderatoren gehört das offenbar zum Alltag - das schreibt jedenfalls die New York Times. Die Zeitung hat mit Mitarbeitern gesprochen und Dokumente zugespielt bekommen, in denen die Vorgaben für das Entfernen oder Stehenlassen von Beiträgen der über zwei Milliarden Nutzer aufgeführt sind.

Laut dem Bericht arbeiten lediglich ein paar Dutzend überwiegend junge Anwälte und Techniker in der Zentrale von Facebook an dem Regelwerk, das den oftmals bei externen Firmen angestellten Moderatoren als Basis für ihre Entscheidungen dient. Die New York Times hat nach eigenen Angaben zahlreiche Lücken und Fehler in den wild zusammengewürfelten, überwiegend aus Excel- und Powerpoint-Dateien bestehenden Dokumenten gefunden.

In Indonesien sind Spendenaufrufe für die Opfer eines Vulkanausbruchs fälschlicherweise abgebrochen worden, weil eine der beteiligten Gruppen auf einer internen Liste von Facebook stand. In Myanmar wiederum konnte eine Terroristengruppe, die des Völkermords beschuldigt wird, monatelang ungestört Hass verbreiten.

Die Moderatoren in diesen Ländern müssen offenbar im Normalfall mit den nur durch Google Translate übersetzten Dokumenten aus der Zentrale arbeiten, die viel zu wenig Kenntnis der lokalen Gegebenheiten hätten. So können Emojis in einem Land Lachen bedeuten, im anderen aber für Mobbing stehen. Noch wesentlich komplexer ist es mit Anspielungen auf Sexualität oder Religion.

Die Moderatoren haben offenbar pro Beitrag nur acht bis zehn Sekunden Zeit für eine Entscheidung, die in der echten Welt große Auswirkungen haben könnte - auch für Facebook: In Indien etwa wurde den Mitarbeitern gesagt, dass Fehlentscheidungen rund um das Thema der Unabhängigkeit der Region Kaschmir dazu führen könnten, dass das soziale Netzwerk in dem ganzen Land gesperrt würde.

In dem Bericht sagt Facebook, die Dokumente seien nur für die Ausbildung der Mitarbeiter gedacht. Eine Sprecherin weist außerdem darauf hin, dass Fehler wegen der Masse an Entscheidungen immer wieder vorkommen würden. Selbst wenn die Mitarbeiter in 99 Prozent der Fälle richtig entschieden, blieben absolut gesehen doch noch viele Fehlurteile übrig.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


Anzeige
Spiele-Angebote
  1. 2,49€
  2. 19,99
  3. (-70%) 5,99€
  4. (-58%) 16,99€

xtrem 01. Jan 2019

Ich glaube nicht, dass du das werden möchtest. https://www.sueddeutsche.de/digital...

gumnade 31. Dez 2018

Hätte man bei so etwas wie dem NetzDG auch aufgenommen, dass diese Löschteams eine...

Malloc_ 31. Dez 2018

Oder besonders kryptische Posts mit merkwürdigen Smileys verfassen? Wie kann ich Facebook...

bark 30. Dez 2018

Ein schlechtes Regel Werk wird nicht besser wenn eine ki drüber entscheidet. Und der...

SchreibenderLeser 30. Dez 2018

Liebe Leserinnen und Leser, Hall Leute, achtung, der folgende Beitrag ist extrem...


Folgen Sie uns
       


Eigene Deep Fakes mit DeepFaceLab - Tutorial

Wir zeigen im Video, wie man mit DeepFaceLab arbeitet.

Eigene Deep Fakes mit DeepFaceLab - Tutorial Video aufrufen
Staupilot: Der Zulassungsstau löst sich langsam auf
Staupilot
Der Zulassungsstau löst sich langsam auf

Nach jahrelangen Verhandlungen soll es demnächst internationale Zulassungskriterien für hochautomatisierte Autos geben. Bei höheren Automatisierungsgraden strebt die Bundesregierung aber einen nationalen Alleingang an.
Ein Bericht von Friedhelm Greis

  1. San José Bosch und Daimler starten autonomen Taxidienst
  2. Autonomes Fahren Ermittler geben Testfahrerin Hauptschuld an Uber-Unfall
  3. Ermittlungsberichte Wie die Uber-Software den tödlichen Unfall begünstigte

Cloud Gaming im Test: Leise ruckelt der Stream
Cloud Gaming im Test
Leise ruckelt der Stream

Kurz vor Weihnachten werben Dienste wie Google Stadia und Playstation Now um Kunden - mit noch nicht ganz perfekter Technik. Golem.de hat Cloud Gaming bei mehreren Anbietern ausprobiert und stellt Geschäftsmodelle und Besonderheiten vor.
Von Peter Steinlechner

  1. Apple und Google Die wollen nicht nur spielen
  2. Medienbericht Twitch plant Spielestreaming ab 2020
  3. Spielestreaming Wie archiviert man Games ohne Datenträger?

Videoüberwachung: Kameras sind überall, aber nicht überall erlaubt
Videoüberwachung
Kameras sind überall, aber nicht überall erlaubt

Dass Überwachungskameras nicht legal eingesetzt werden, ist keine Seltenheit. Ob aus Nichtwissen oder mit Absicht: Werden Privatsphäre oder Datenschutz verletzt, gehören die Kameras weg. Doch dazu müssen sie erst mal entdeckt, als legal oder illegal ausgemacht und gemeldet werden.
Von Harald Büring

  1. Nach Attentat Datenschutzbeauftragter kritisiert Hintertüren in Messengern
  2. Australien IT-Sicherheitskonferenz Cybercon lädt Sprecher aus
  3. Spionagesoftware Staatsanwaltschaft ermittelt nach Anzeige gegen Finfisher

    •  /