Deep-Learning: Medienanstalten suchen mit KI nach Pornos und Gewalt
Die Medienregulierer in Deutschland untersuchen automatisiert 10.000 Webseiten und Social-Media-Plattformen nach eventuell illegalen Inhalten.

Die Medienanstalten in Deutschland setzen bei ihrer Arbeit ab sofort auf künstliche Intelligenz. Eine für Nordrhein-Westfalen entwickelte Software wird ab sofort bundesweit eingesetzt, wie die Landesanstalt für Medien NRW am Donnerstag in Düsseldorf mitteilte. "Durch automatisiertes Monitoring von Social-Media-Plattformen und Webseiten werden potenzielle Rechtsverstöße identifiziert und zur Prüfung durch die Mitarbeitenden der Aufsicht vorbereitet", teilte die NRW-Medienaufsicht mit.
Mit Hilfe der Software werden täglich mehr als 10.000 Seiten automatisch auf Rechtsverstöße geprüft. Die Zahl der Strafanzeigen hätten sich demnach im Vergleich zu vergleichbaren Bearbeitungszeiträumen verdoppelt. "Zu den konkreten Verstoßkategorien zählen beispielsweise Gewaltdarstellungen, Volksverhetzung, die Verwendung verfassungsfeindlicher Kennzeichen oder frei zugängliche Pornografie", heißt in der Ankündigung.
Das KI-Modell, zu dessen Funktionsweise es so gut wie keine technischen Details gibt, basiert offenbar auf einem Machine-Learning-Ansatz. Dazu heißt es: "Die KI lernt durch Bild- und Textbespiele, die wir aktiv einspeisen und die in der Vergangenheit als Verstoß bewertet wurden sowie durch unsere tägliche Rückmeldung, ob sich ein gefundener Verdacht bestätigt hat oder nicht." Das System erreiche dabei eine "Trefferquote von über 90 Prozent im Bereich der Pornografie und von knapp 40 Prozent im Bereich der Verstöße gegen die Menschenwürde und des politischen Extremismus".
KI soll Mitarbeiter schonen
"Der Einsatz künstlicher Intelligenz ermöglicht eine Medienaufsicht, die menschliche Expertise und höchste technologische Standards vereint. Um beides zu erreichen: den Schutz vor Rechtsverstößen und damit die Sicherung der Meinungsfreiheit", sagte Tobias Schmid, Direktor der Landesanstalt für Medien NRW, über die deutschlandweite Anwendung des Tools.
Nach Angaben der Medienanstalt NRW wird durch die Software auch die psychische Gesundheit der Mitarbeiter geschont. Das Risiko unvermittelt auf belastende Inhalte zu stoßen, werde minimiert. Potenzielle Verstöße werden automatisch Kategorien zugeordnet und zunächst unscharf dargestellt.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Pornos sind wohl das kleinste übel. Heute liefern die sozialen Medien Livebilder vom...
Man darf sich hier nicht so extrem an den einzelnen Begriffen festmachen sondern muss...