Original-URL des Artikels: https://www.golem.de/news/facebook-dokumente-zum-umgang-mit-sex-und-gewaltinhalten-geleakt-1705-127968.html    Veröffentlicht: 22.05.2017 16:00    Kurz-URL: https://glm.io/127968

Facebook

Dokumente zum Umgang mit Sex- und Gewaltinhalten geleakt

Gezeichnete Nacktheit ist okay, fotografierte nicht: Mit derlei Vorgaben sollen Tausende Moderatoren bei Facebook für eine "saubere" Timeline sorgen. Eine britische Zeitung hat jetzt interne Dokumente zugespielt bekommen.

Jede Woche müssen die Moderatoren von Facebook rund 6,5 Millionen als "Fake" gemeldete Profile kontrollieren: Das ist eine der Zahlen von internen Dokumenten des sozialen Netzwerks, die jetzt vom Guardian veröffentlicht wurden. Die britische Zeitung hat auch Informationen darüber zugespielt bekommen, wie die Moderatoren mit Sex und Gewalt umzugehen haben - und auch, dass es sogar Anweisungen für exotisch anmutende Themen wie Kannibalismus gebe.

Die geleakten Dokumente machen vor allem eines klar: Es gibt keine klaren Vorgaben. Die Entscheidung, ob etwa ein Foto mit Gewalt gegen Kinder aus Sicht von Facebook ein Problem darstellt, ist für den Moderator alles andere als einfach zu bewältigen. Laut dem Guardian könne es nämlich stehenbleiben, falls die Gewalt kein sadistisches Element enthalte oder nicht gefeiert werde. Facebook habe dies bestätigt und erklärt, dass derartige Bilder mit der Absicht erlaubt würden, dem "Kind zu helfen" - gemeint ist damit wohl, dass Verwandte, Bekannte oder Ermittlungsbehörden alarmiert werden könnten.

Derartige manchmal sicherlich einfachen, oft aber auch komplexen Einschätzungen müssen die Mitarbeiter angesichts der schieren Masse an Kommentaren "oft innerhalb von 10 Sekunden treffen", zitiert der Guardian aus einem der Dokumente.

Beim Sex wird es kompliziert

Besonders komplex seien die internen Anweisungen von Facebook beim Thema Sex. Der Guardian zeigt das vor allem anhand von Revenge Porn - damit ist etwa gemeint, dass Intimfotos durch einen betrogenen oder verlassenen Partner ins Netz gestellt werden.

Bei Facebook ist das dann ein Problem, wenn das Foto erkennbar im privaten Umfeld aufgenommen wurde, wenn der oder die Gezeigte zumindest ansatzweise nackt sei und durch den Kontext klar werde, dass die Aufnahme ohne Zustimmung aller Beteiligten veröffentlicht wurde.

Etwas einfacher ist die Lage derzeit bei allen gewöhnlichen Nacktbildern: Wenn es sich um Zeichnungen handelt, sollen sie veröffentlicht werden können - Fotos hingegen nicht.

Facebook hat dem Guardian gesagt, dass generell bestimmte Bilder von Softwarealgorithmen herausgefiltert würden. Aber beispielsweise bei Aufnahmen im Zusammenhang mit Terrorakten sei das Unternehmen nicht zu restriktiv, um Diskussionen über wichtige Vorgänge nicht abzuwürgen.

Facebook hat derzeit rund 1,94 Milliarden Mitglieder. Kürzlich hatte das Unternehmen bekanntgegeben, dass es zurzeit etwa 4.500 Mitarbeiter beschäftigt, die als Moderatoren problematische Inhalte kontrollieren und gegebenenfalls löschen und dass weltweit rund 3.000 weitere Aufpasser hinzukommen sollen.  (ps)


Verwandte Artikel:
Rechtsstreit: Blackberry verklagt Facebook wegen Messaging-Patenten   
(07.03.2018, https://glm.io/133189 )
Snowden-Dokumente: Die planmäßige Zerstörungswut des GCHQ   
(27.08.2015, https://glm.io/115965 )
Snet in Kuba: Ein Internet mit Billigroutern und ohne Porno   
(04.01.2018, https://glm.io/131945 )
Playstation: Firmware-Update bringt Supersampling und Elternkontrolle   
(08.03.2018, https://glm.io/133232 )
Netzwerkdurchsetzungsgesetz: Viel weniger Beschwerden als erwartet   
(03.03.2018, https://glm.io/133125 )

© 1997–2020 Golem.de, https://www.golem.de/