Original-URL des Artikels: https://www.golem.de/news/terrorinhalte-eu-ausschuss-lehnt-uploadfilter-ab-1904-140558.html    Veröffentlicht: 09.04.2019 11:15    Kurz-URL: https://glm.io/140558

Terrorinhalte

EU-Ausschuss lehnt Uploadfilter ab

Zumindest bei der Bekämpfung von Terrorinhalten sollen Internetanbieter künftig keine Uploadfilter installieren müssen. Aber auch das Europaparlament spricht sich für extrem kurze Löschfristen aus.

Bei der Bekämpfung von Terrorinhalten sollen Internetfirmen nicht zum Einsatz von automatischen Uploadfiltern verpflichtet werden. Das beschloss am Montag der federführende Innenausschuss des Europaparlaments (LIBE) und lehnte damit einen anderslautenden Vorschlag der EU-Kommission ab. Allerdings befürwortete der Ausschuss die Forderung der Kommission, wonach Internetfirmen innerhalb einer Stunde nach einem Hinweis der Behörden beanstandete Inhalte entfernen müssen. Sollten Firmen "systematisch und dauerhaft" gegen das Gesetz verstoßen, könnten sie zu einer Strafe von bis zu vier Prozent ihrer Jahresumsatzes verurteilt werden.

Die EU-Kommission hatte ihren umstrittenen Verordnungsentwurf im September 2018 präsentiert. Der Vorschlag entsprach dabei weitgehend den unverbindlichen Empfehlungen, die die EU-Kommission im März 2018 vorgeschlagen hatte. Allerdings hatten Bundesinnenminister Horst Seehofer (CSU) und sein französischer Amtskollege Gérard Collomb schon im April 2018 die EU-Kommission zu einer gesetzlichen Regelung aufgefordert.

Anfang August 2018 hatte die Kommission dann verlautbaren lassen, dass ein schneller Gesetzesvorschlag geplant sei. Besonders umstritten ist dabei der Vorschlag, dass Anbieter gegebenenfalls "proaktive Maßnahmen" ergreifen sollen, um das Hochladen bereits entfernter Inhalte zu verhindern. Dazu könnten "automatisierte Werkzeuge" wie Uploadfilter gehören. Nach dem Attentat auf eine Moschee im neuseeländischen Christchurch ging es ebenfalls um die Frage, wie die Verbreitung von Anschlagvideos verhindert werden könnte.

Alle Plattformen mit nutzergenerierten Inhalten betroffen

Betroffen von der Verordnung sind laut Factsheet alle Internetunternehmen, "die in der EU Dienste anbieten, unabhängig von ihrer Größe und ihrem Hauptsitz in der Welt". Im Entwurf selbst ist von "Hostingdiensteanbietern" die Rede (Artikel 2). Darunter sind jedoch nicht nur Webhoster zu verstehen oder größere Plattformen wie Facebook, sondern alle Anbieter, die Informationen von "Inhalteanbietern" speichern und verfügbar machen. Als "Inhalteanbieter" gilt jedoch jeder "Nutzer, der Informationen bereitgestellt hat, die in seinem Auftrag von einem Hostingdiensteanbieter gespeichert wurden oder gespeichert werden", heißt es weiter. Das heißt, jeder Anbieter mit nutzergenerierten Inhalten müsste die Anforderungen des Gesetzes erfüllen.

Zu "terroristischen Inhalten" gehören unter anderem "der Aufruf zu oder die Befürwortung von terroristischen Straftaten, auch durch ihre Verherrlichung, mit der damit einhergehenden Gefahr, dass solche Taten begangen werden könnten" oder "die Ermutigung, an terroristischen Straftaten mitzuwirken". Weiter zählen "technische Anleitungen oder Methoden für das Begehen terroristischer Straftaten" dazu.

Trilog erst nach den Wahlen

Nach dem Willen des Parlaments sollen Internetfirmen, die häufig eine Löschaufforderung erhalten, jedoch von den Behörden zu zusätzlichen Maßnahmen verpflichtet werden können. Dazu zählen demnach regelmäßige Löschberichte und die Einstellung zusätzlicher Mitarbeiter. Allerdings sollten die Behörden bei solchen Anordnungen die Größe und wirtschaftliche Leistungsfähigkeit der Firmen sowie die Freiheit berücksichtigen, "Informationen und Ideen in einer offenen und demokratischen Gesellschaft zu erhalten und zu teilen". Um kleineren Plattformen entgegenzukommen, sollen die Behörden bei einer erstmaligen Löschaufforderung einen Vorlauf von zwölf Stunden vorsehen.

Gestrichen wurde zudem der Artikel 5 des Vorschlags, mit dem Hostingdiensteanbieter zu "betrieblichen und technischen Maßnahmen" verpflichtet werden sollten, Meldungen zu angeblichen Terrorinhalten "freiwillig" zu überprüfen. Der betroffene Anbieter sollte "vorrangig den gemeldeten Inhalt auf dessen Vereinbarkeit mit seinen eigenen Nutzungsbedingungen" prüfen und dann entscheiden, ob der Inhalt entfernt oder gesperrt wird.

Das Plenum des Europaparlaments soll in der kommenden Woche über den Vorschlag des Ausschusses abstimmen. Die sogenannten Trilogverhandlungen zwischen Parlament, Kommission und Mitgliedstaaten sollen aber erst nach den Europawahlen von Ende Mai starten. Die konservative EVP-Fraktion kündigte an, sich weiterhin für die Uploadfilter und den Melde-Mechanismus einsetzen zu wollen.

Nachtrag vom 10. April 2019, 17:02 Uhr

Der vollständige Beschluss des Ausschusses wurde am 10. April 2019 veröffentlicht (PDF, Seite 5-76).  (fg)


Verwandte Artikel:
EU-Kommission: Leitlinien sollen Missbrauch von KI verhindern   
(08.04.2019, https://glm.io/140550 )
Christchurch: Wie umgehen mit Terrorvideos im Netz?   
(21.03.2019, https://glm.io/140152 )
Facebook: Watch Party wird zum illegalen Anschauen von Filmen benutzt   
(10.04.2019, https://glm.io/140584 )
Facebook, Google, Twitter: Mozilla fordert klare Regeln zur Werbetransparenz   
(04.04.2019, https://glm.io/140452 )
Urheberrechtsreform: Startups sollen von Uploadfiltern ausgenommen werden   
(10.02.2019, https://glm.io/139292 )

© 1997–2020 Golem.de, https://www.golem.de/