Original-URL des Artikels: https://www.golem.de/news/probleminhalte-management-von-youtube-soll-hassvideos-ignoriert-haben-1904-140438.html    Veröffentlicht: 03.04.2019 16:13    Kurz-URL: https://glm.io/140438

Probleminhalte

Management von Youtube soll Hassvideos ignoriert haben

Youtube-Chefin Susan Wojcicki habe sich nicht für Videos mit Verschwörungstheorien und Hass interessiert, so ein Medienbericht. Andere Mitarbeiter der Plattform sollen derartige Inhalte sogar auf Anraten von Anwälten bewusst ignoriert haben.

Ruhig mal ausprobieren: Wer auf Youtube ein einigermaßen seriöses Video etwa über die Krankheit Krebs oder das Impfen von Kindern angeschaut hat, bekommt von den Algorithmen als nächstes meist ein etwas reißerisches Filmchen empfohlen. Kritiker machen dieses System für die Massen an Hassinhalten und schrägen Verschwörungstheorien verantwortlich. Nun schreibt das Magazin Bloomberg, dass Firmenchefin Susan Wojcicki und leitende Mitarbeiter diese Vorgehensweise jahrelang gefördert und inhaltliche Probleme der Plattform bewusst ignoriert haben sollen.

Kritik aus den eigenen Reihen und Bitten um einen Wechsel der Strategie hätten dagegen keine Chance gehabt - stattdessen soll immer nur die Steigerung der Klickzahlen im Mittelpunkt gestanden haben, etwa durch die Empfehlungen. Wojcicki, die ihren Posten seit 2014 inne hat, soll sich für Probleminhalte schlicht nicht interessiert haben.

Wojcicki habe sich lediglich für "die Leitung des Unternehmens" zuständig gefühlt - so beschreibt ein anonymer Mitarbeiter ihre Einstellung. Die Beschäftigung mit der systematischen Begünstigung von Hassbotschaften und Verschwörungstheorien habe Wojcicki offenbar nicht zu ihren Aufgaben gezählt.

Laut Bloomberg sollen Anwälte sogar die Empfehlung ausgesprochen haben, dass leitende Mitarbeiter von Youtube, die nicht zum Moderatorenteam gehören, sich möglichst wenig mit Hassinhalten beschäftigen. Als Beispiel werden Lügenvideos über eine umstrittene US-Bundesrichterin genannt.

Die Logik hinter dem Rat der Juristen: Falls es einmal zu Rechtsstreitigkeiten über solche Filme kommen sollte, könnten die Mitarbeiter es etwas leichter haben, wenn sie diese Videos nie gesehen haben. Derlei Tipps habe es nur mündlich gegeben, nie in Schriftform.

Auf Anfrage von Bloomberg hat eine Sprecherin von Youtube bestritten, dass Empfehlungen eher reißerische Videos aussuchen. Seit 2017 sollen die Algorithmen primär einem Wert namens Verantwortung (Responsibility) bevorzugen, der über Zuschauerbefragungen nach Videos ermittelt wurde. Youtube erhalte jede Woche viele Millionen solcher Umfrageergebnisse - die in sozialen Netzwerken übrigens so gut wie nie Thema sind.

In den vergangenen Monaten hat Youtube eine Reihe weiterer Maßnahmen umgesetzt, um gegen Probleminhalte vorzugehen. Videos mit bestimmten Verschwörungstheorien (flache Erde) tauchen nicht mehr in Empfehlungen auf, bei anderen Themen (etwa Videos von Impfgegnern) sollen zunächst in Indien, später auch im Rest der Welt sogenannte Faktenchecks eingeblendet werden. In den Suchergebnissen ist dann beispielsweise ein Hinweis zu sehen, der vor einer Falschmeldung warnt und auf zusätzliche Informationen verlinkt.  (ps)


Verwandte Artikel:
Gewaltinhalte: Youtube verstärkt Kampf gegen problematische Inhalte   
(05.12.2017, https://glm.io/131488 )
Youtube: Google will keine teuren Serien mehr produzieren   
(25.03.2019, https://glm.io/140235 )
Bloomberg legt nach: Spionagechips angeblich auch bei US-Provider   
(10.10.2018, https://glm.io/137050 )
Fake News: Youtube will Faktenchecks bei Probleminhalten einblenden   
(11.03.2019, https://glm.io/139922 )
Hack: Verwaiste Twitter-Konten posten IS-Propaganda   
(03.01.2019, https://glm.io/138484 )

© 1997–2019 Golem.de, https://www.golem.de/