Seiten melden: Facebook hält sich nicht an seine Richtlinien
Hassbotschaften, Sex, Gewalt: Wenn Facebook-Nutzer Seiten melden, werden sie eingehend geprüft. Entscheidend bei der Sperrung sind aber offenbar weniger die Richtlinien des Netzwerks als seine Moral.

Wehrmacht - ein Haufen guter Kerle und die SS Asian Division: Wenn Inhalte gegen die Richtlinien von Facebook verstoßen, können Nutzer solche Beiträge und Seiten melden. Das haben wir mit den beiden Seiten getan. Auf ihnen waren verfassungsfeindliche Beiträge und Symbole zu sehen, die eindeutig gegen die Regeln von Facebook verstießen. Doch nur eine davon hat Facebook gelöscht. Obwohl das Unternehmen Richtlinien für Inhalte hat, entscheidet es oft nicht danach.
- Seiten melden: Facebook hält sich nicht an seine Richtlinien
- Facebooks Moral
Welche Beiträge es nicht auf seiner Plattform haben will, hat Facebook in den Gemeinschaftsstandards festgelegt. Es verbietet zum Beispiel "Hassbotschaften" oder "das Teilen pornografischer Inhalte sowie jedweder sexueller Inhalte". Auf Nachfrage von Golem.de sagte Facebook, dass es sehr genau prüfe, "ob gegen die Richtlinien verstoßen wird" und handele, wenn ein Verstoß vorliege.
Facebook-Teams prüfen die Inhalte
Ein Reporting-Guide von Facebook zeigt, dass es einen Leitfaden im Unternehmen gibt. Dort steht, was passiert, wenn Seiten von Nutzern gemeldet werden. Mitarbeiter weltweit befassen sich laut Facebook rund um die Uhr mit den gemeldeten Seiten. Für jede Art von Inhalt gibt es geschultes Personal. Das Safety Team. Das Hate and Harassment Team. Das Abusive Team. Zwar habe es eigene "komplexe Systeme" zum Aufspüren von Inhalten entwickelt, sagte uns Facebook. Ganz darauf verlassen will es sich aber offenbar nicht.
"Nachdem eine Meldung bei Facebook eingegangen ist, wird diese von einem Team überprüft und anschließend eine passende Maßnahme ergriffen", schreibt Facebook. Wenn eins der Teams feststelle, dass ein gemeldeter Inhalt gegen die Richtlinien verstoße, werde der Inhalt sofort entfernt. Bei einigen Inhalten wird laut Infografik die Rechtsabteilung des Netzwerks eingeschaltet.
Mal wird gelöscht, mal nicht
Laut Mimikama.at, das sich kritisch mit Inhalten von Facebook auseinandersetzt, ist das Unternehmen gerade bei Gewalt und Hetze sehr sensibel. "Hier ist nicht nur das Bild oder das Video relevant, sondern auch der Statusbeitrag in Textform." Facebook versuche, die Beziehung zwischen Bild und Text herzustellen, um eine Entscheidung zu treffen. "Wenn die Gewalt verurteilt wird, oder wenn zur Aufklärung aufgerufen wird, dann werden die Beiträge nicht gelöscht. Erst wenn die Posts die Gewalt verherrlichen oder dazu aufrufen, ist es aus Sicht Facebooks löschwürdig", schreibt Mimikama.
Trotz dieser genauen Prüfung wurde beispielsweise die Seite Save White Children from Genocide mit über 9.000 Mitgliedern auch nach mehrfachem Melden nicht gelöscht - obwohl sie viele laut Richtlinien verbotene Beiträge mit rassistischen Texten enthält. Auch bei der Seite SS Asia Division, auf der Beispielsweise SS-Männer und -Runen abgebildet waren, bekamen wir eine Nachricht von Facebook: "Wir haben die von dir wegen Hassbotschaften oder -symbolen gemeldete Seite geprüft und festgestellt, dass sie nicht gegen unsere Gemeinschaftsstandards verstößt." Offenbar spielen also beim Sperrungsvorgang nicht nur die Richtlinien eine Rolle.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Facebooks Moral |
- 1
- 2
gestern eine facebookseite gemeldet die zur hinrichtung von polizisten animiert. heute...
jeden rassistischen Müll darf man bei Youtube in die Kommentare schmieren. Meldung zwecklos.
Doch die gibt es. Die sind nur nicht so sehr verbreitet und auch nicht auf der...
Ja, aber keinen sitz in DE, glaube der EU sitz ist in Irland. Und in der EU sind...