• IT-Karriere:
  • Services:

Künstliche Intelligenz - die vermeintliche Lösung für alles

Wer über die Zukunft von Content-Moderation spricht, landet eher früher als später bei künstlicher Intelligenz (KI). Wie in vielen anderen Bereichen gilt sie als Lösung, die alles besser machen soll. Auch Facebook-Chef Mark Zuckerberg glaubt an die Kraft der Algorithmen, wie er unter anderem vor dem US-Kongress beteuerte.

Stellenmarkt
  1. Universität Passau, Passau
  2. Merz Pharma GmbH & Co. KGaA, Frankfurt am Main

Es klingt ja auch verlockend: ein automatisches System, das zuverlässig und quasi in Echtzeit Inhalte erkennt, die gegen die Richtlinien verstoßen, und entsprechende Entscheidungen fällt. Doch ob es so ein System mittelfristig geben wird, ist fraglich.

"Künstliche Intelligenz kann für einige Inhalte gut funktionieren, für andere aber nicht", sagte Sana Ahmad im Gespräch mit Golem.de. "Schon jetzt werden automatisierte Prozesse von Plattformen eingesetzt, um Inhalte wie Kinderpornografie zu erkennen." Die Sozialwissenschaftlerin forscht am Berliner Weizenbaum Institut über Content-Moderation und beschäftigt sich dabei vor allem mit den Arbeitsbedingungen von Moderatoren in Ländern wie Indien.

Zu den bekannteren Plattformen, die KI einsetzen, gehören Instagram und Facebook, das 2018 auf seiner Entwicklerkonferenz ankündigte, mit KI vor allem problematische Inhalte wie Nacktheit, Pornografie, Gewalt und Spam besser erkennen zu wollen. Im Juni dieses Jahres gab Facebook an, in Kategorien wie Spam und Terrorpropaganda eine über 99-prozentige Trefferrate zu erzielen. Auch im Bereich von Hate Speech funktionierten die Algorithmen immer besser und meldeten Beiträge und Accounts an die menschlichen Moderatoren, die diese dann noch einmal überprüften, erklärte Facebook.

KI kann Moderatoren helfen, sie aber nicht immer ersetzen

Das beschreibt allerdings genau ein Problem der künstlichen Intelligenz: Die Technik kann die menschlichen Moderatoren zwar unterstützen, aber sie bislang noch nicht ersetzen. Jedenfalls nicht in allen Bereichen. "Viele der KI-Tools werden vor allem zum Flaggen von Inhalten eingesetzt, sie machen also die Arbeit vielleicht schneller, garantieren aber keine Richtigkeit. Die menschlichen Moderatoren trainieren die Software sogar noch, indem sie die Inhalte gemäß der internen Richtlinien klassifizieren", sagt Ahmad.

KI kann zwar in Form von Deep Learning und automatischer Motiverkennung helfen, Audio- und Videoinhalte zu identifizieren, die auf einer Plattform veröffentlicht werden. Sogenanntes Content-Hashing oder Fingerprinting, bei dem etwa einzelne Bilder mit individuellen Signaturen versehen werden (etwa mithilfe von Microsofts Photo-DNA) wird ebenfalls bereits eingesetzt, um kinderpornografisches Material zu erkennen. Bilderkennung kann auf verbotene Symbole oder Pornografie hin trainiert werden, also Inhalte, die über Dienste hinweg geteilt werden. Beides funktioniert, weil es bereits große Datenbanken mit vorhandenen Signaturen und genug Trainingsmaterial gibt.

Schwieriger wird es, wenn es um individuelle Äußerungen von Nutzern geht, sprich um Hass, Hetze und Beleidigungen. Oder um die Frage, welche Äußerung unter welchem Gesetz erlaubt oder verboten ist, ob es sich um Satire handelt oder nicht und in welcher Sprache und vor allem in welchem Kontext die Inhalte veröffentlicht werden. Je mehr "extrinsischer Informationen" es bedürfe, um Inhalte zu verstehen, desto schwieriger sei es für Algorithmen, sie zu klassifizieren und damit zu moderieren, sagte der US-Rechtsprofessor Eric Goldman im Gespräch mit The Verge. Wie viele andere Experten glaubt auch er, dass künstliche Intelligenz zwar besser werde, aber menschliche Moderatoren so schnell nicht werde ablösen können.

Selbst wenn eine nahezu perfekte Erkennung von Hate Speech durch Algorithmen technisch möglich wäre, ist das noch nicht zwangsweise das Ende dieser Inhalte. Denn es liegt weiterhin im Ermessen der Plattformbetreiber, auf welche Art von Hate Speech oder Propaganda sie ihre KI trainieren.

Die Informatikerin Sarah Roberts von der Universität von Kalifornien schrieb 2018 in einem Paper, dass Moderationsentscheidungen bei kommerziellen Plattformen stets darauf basierten, wie viel Wert sie für die Plattform schöpften. Oder anders gesagt: Eine US-Plattform dürfte kein Problem damit haben, islamistische Inhalte zu verbannen. Doch wenn es um Rassismus oder nationalistische Inhalte geht, möchte man vielleicht nicht gleich alle User vergrätzen. Schon jetzt sei die Transparenz in der Moderation kaum gegeben, kritisierte Roberts. Der Einsatz künstlicher Intelligenz mache Entscheidungen noch intransparenter.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
 Mods, please: Wie Plattformen versuchen, ihre Nutzer zu bändigenShadow Bans: Aus den Augen, aus dem Sinn? 
  1.  
  2. 1
  3. 2
  4. 3
  5. 4
  6. 5
  7.  


Anzeige
Spiele-Angebote
  1. 23,99€
  2. 31,99€

TW1920 30. Okt 2019

Deswegen meinte der Threadersteller ja, dass das halt nur bei neuen Accounts was bringt...

Astorek 29. Okt 2019

Zwischen "Blödeln, Meckern, Kritik und Negatives" und menschenverachtender Hetze besteht...

Handle 29. Okt 2019

Ich habe ein Beispiel von hier: Beim letzten Artikel von Valerie Lux hier auf Golem wurde...

Dwalinn 28. Okt 2019

Bisher gab's bei mir immer ne kleine Erklärung warum man einen Kommentar gelöscht hat...

Salzbretzel 28. Okt 2019

Bei dem Thema Mods denke ich gerne an Früher zurück. Als es Foren und noch keine...


Folgen Sie uns
       


    •  /