Original-URL des Artikels: https://www.golem.de/news/terrorinhalte-europaparlament-akzeptiert-gesetzliche-schnellloeschung-1904-140754.html    Veröffentlicht: 17.04.2019 18:17    Kurz-URL: https://glm.io/140754

Terrorinhalte

Europaparlament akzeptiert gesetzliche Schnelllöschung

Das Europaparlament will keine Uploadfilter gegen das Hochladen von Terrorinhalten. Doch die Löschfrist von einer Stunde soll von allen Plattformen eingehalten werden.

Im Kampf gegen die Verbreitung von terroristischen Inhalten im Netz lehnt das Europaparlament "proaktive Maßnahmen" für Internetanbieter ab. Das Plenum der Abgeordneten folgte damit am Mittwoch in seiner Abstimmung den Empfehlungen des federführenden Innenausschusses. Dabei scheiterte der Versuch von Abgeordneten, die vorgesehene kurze Löschfrist bei Hinweis auf Terrorinhalte wieder aus dem Verordnungsentwurf zu kippen, nur an wenigen Stimmen. "Innerhalb einer Stunde nach Erhalt der Entfernungsanordnung entfernen die Hostingdiensteanbieter die terroristischen Inhalte schnellstmöglich oder sperren den Zugang dazu", heißt es nun in Artikel 4 des Vorschlags (PDF).

Nach dem Willen des Parlaments sollen Internetfirmen, die häufig eine Löschaufforderung erhalten, jedoch von den Behörden zu zusätzlichen Maßnahmen verpflichtet werden können. Dazu zählen demnach regelmäßige Löschberichte und die Einstellung zusätzlicher Mitarbeiter. "Die zuständige Behörde erlegt weder eine allgemeine Überwachungspflicht noch die Verwendung automatischer Werkzeuge auf", heißt es in Artikel 6. Zudem sollten die Behörden bei solchen Anordnungen die Größe und wirtschaftliche Leistungsfähigkeit der Firmen sowie die Freiheit berücksichtigen, "Informationen und Ideen in einer offenen und demokratischen Gesellschaft zu erhalten und zu teilen". Um kleineren Plattformen entgegenzukommen, sollen die Behörden bei einer erstmaligen Löschaufforderung einen Vorlauf von zwölf Stunden vorsehen.

Trilog nach den Wahlen

Gestrichen wurde zudem der Artikel 5 des Vorschlags, mit dem Hostingdiensteanbieter zu "betrieblichen und technischen Maßnahmen" verpflichtet werden sollten, Meldungen zu angeblichen Terrorinhalten "freiwillig" zu überprüfen. Der betroffene Anbieter sollte "vorrangig den gemeldeten Inhalt auf dessen Vereinbarkeit mit seinen eigenen Nutzungsbedingungen" prüfen und dann entscheiden, ob der Inhalt entfernt oder gesperrt wird. Die sogenannten Trilogverhandlungen zwischen Parlament, Kommission und Mitgliedstaaten sollen aber erst nach den Europawahlen Ende Mai starten.

Die EU-Kommission hatte ihren umstrittenen Verordnungsentwurf im September 2018 präsentiert. Der Vorschlag entsprach dabei weitgehend den unverbindlichen Empfehlungen, die die EU-Kommission im März 2018 vorgeschlagen hatte. Allerdings hatten Bundesinnenminister Horst Seehofer (CSU) und sein französischer Amtskollege Gérard Collomb schon im April 2018 die EU-Kommission zu einer gesetzlichen Regelung aufgefordert.

Anfang August 2018 hatte die Kommission dann verlautbaren lassen, dass ein schneller Gesetzesvorschlag geplant sei. Besonders umstritten ist dabei der Vorschlag, dass Anbieter gegebenenfalls "proaktive Maßnahmen" ergreifen sollen, um das Hochladen bereits entfernter Inhalte zu verhindern. Dazu könnten "automatisierte Werkzeuge" wie Uploadfilter gehören. Nach dem Attentat auf eine Moschee im neuseeländischen Christchurch ging es ebenfalls um die Frage, wie die Verbreitung von Anschlagvideos verhindert werden könnte.

Alle Plattformen mit nutzergenerierten Inhalten betroffen

Betroffen von der Verordnung sind laut Factsheet alle Internetunternehmen, "die in der EU Dienste anbieten, unabhängig von ihrer Größe und ihrem Hauptsitz in der Welt". Im Entwurf selbst ist von "Hostingdiensteanbietern" die Rede (Artikel 2). Darunter sind jedoch nicht nur Webhoster zu verstehen oder größere Plattformen wie Facebook, sondern alle Anbieter, die Informationen von "Inhalteanbietern" speichern und verfügbar machen. Als "Inhalteanbieter" gilt jedoch jeder "Nutzer, der Informationen bereitgestellt hat, die in seinem Auftrag von einem Hostingdiensteanbieter gespeichert wurden oder gespeichert werden", heißt es weiter. Das bedeutet, jeder Anbieter mit nutzergenerierten Inhalten müsste die Anforderungen des Gesetzes erfüllen.

Zu "terroristischen Inhalten" gehören unter anderem "der Aufruf zu oder die Befürwortung von terroristischen Straftaten, auch durch ihre Verherrlichung, mit der damit einhergehenden Gefahr, dass solche Taten begangen werden könnten" oder "die Ermutigung, an terroristischen Straftaten mitzuwirken". Weiter zählen "technische Anleitungen oder Methoden für das Begehen terroristischer Straftaten" dazu.  (fg)


Verwandte Artikel:
Terrorinhalte: EU-Ausschuss lehnt Uploadfilter ab   
(09.04.2019, https://glm.io/140558 )
Christchurch: Wie umgehen mit Terrorvideos im Netz?   
(21.03.2019, https://glm.io/140152 )
Datenweitergabe: BGH zweifelt an Recht auf Verbandsklage gegen Facebook   
(11.04.2019, https://glm.io/140627 )
Facebook, Google, Twitter: Mozilla fordert klare Regeln zur Werbetransparenz   
(04.04.2019, https://glm.io/140452 )
Urheberrechtsreform: Startups sollen von Uploadfiltern ausgenommen werden   
(10.02.2019, https://glm.io/139292 )

© 1997–2019 Golem.de, https://www.golem.de/