Original-URL des Artikels: https://www.golem.de/news/christchurch-wie-umgehen-mit-terrorvideos-im-netz-1903-140152.html    Veröffentlicht: 21.03.2019 09:59    Kurz-URL: https://glm.io/140152

Christchurch

Wie umgehen mit Terrorvideos im Netz?

Ein Video des Terroranschlags von Christchurch ist aus dem Internet kaum noch wegzubekommen. Das gibt denjenigen neue Argumente, die auch gegen Terrorinhalte im Netz Uploadfilter einsetzen wollen.

Die grüne Europaabgeordnete Helga Trüpel twitterte am 19. März 2019 nach dem Terroranschlag im neuseeländischen Christchurch: "Glaubt nach dem bei Facebook live übertragenen Terroranschlag in Neuseeland noch wer, dass wir keine guten Regeln für die kommerziellen Plattformen brauchen?" Der Rechtsstaat müsse "abwägen zwischen Meinungsfreiheit und Schutz vor Terror". Ähnlich äußerte sich auch die CDU-Vorsitzende Annegret Kramp-Karrenbauer im Heute Journal: Man müsse sich darüber unterhalten, "wie sofort und umgehend bei einer solchen Situation reagiert" werde, "damit sich diese Bilder eben nicht versenden".

Trüpel und Kramp-Karrenbauer geht es nicht um Uploadfilter nach Artikel 13 der Urheberrechtsreform, sondern um Artikel 6 der geplanten EU-Verordnung zur "Verbreitung terroristischer Inhalte im Internet". Der Kommissionsentwurf verlangt von den Plattformen, terroristische Inhalte "proaktiv" an der Verbreitung zu hindern. Falls sie doch veröffentlicht werden, sollen die Diensteanbieter innerhalb von 60 Minuten reagieren. Uploadfilter sind nicht vorgeschrieben. Ihr Einsatz liegt jedoch angesichts der schieren Massen an Uploads nahe.

Wie lässt sich die Videoverbreitung stoppen?

Die neuseeländischen Strafverfolgungsbehörden versuchten vergeblich, die Verbreitung des Videos zu unterbinden. Einen Tag nach dem Anschlag verboten die Behörden, Videos und Bilder des rechtsterroristischen Anschlags zu verbreiten. Auch geschnittene Versionen von Nachrichtensendern dürfen in Neuseeland nicht mehr gezeigt werden. Ein 18-Jähriger stand wegen Verbreitung des Links zum Live-Video des Täters und einer hetzerischen Fotomontage bereits vor dem Distriktgericht Christchurch. Sein Antrag auf Haftentlassung auf Kaution wurde abgelehnt.

Die Bilder sind weltweit verbreitet. Einzelne Medien wie die Bild-Zeitung haben das Christchurch-Video teilweise genutzt. Der türkische Präsident Recep Erdogan verwendete Ausschnitte im Wahlkampf, woraufhin Regierungsvertreter Neuseelands und Australiens vor einer Politisierung des Massakers warnten. Die großen Plattformen Facebook, Youtube und Twitter zeigen sich bislang überfordert: Bis Sonntag musste Facebook über 1,5 Mllionen Versionen des Videos löschen, in geschlossenen Gruppen sollen Kopien aber noch sichtbar sein.

Gemeinsame Hash-Datenbank

Youtube hat seine Uploadfilter bereits auf das Video optimiert, wobei auch Löschungen per Hand noch nötig sind, um verfremdete Videoausschnitte zu erfassen. Twitter schränkte seine Suche ein, doch entsprechende Hinweise sollen immer noch auffindbar sein.

Unternehmen wie Google, Facebook, Microsoft, Twitter, Snap oder Wordpress löschen im Rahmen des EU-Internetforums in Kooperation mit der europäischen Polizeibehörde Europol bisher terroristische Inhalte auf freiwilliger Basis. Dafür pflegen sie eine gemeinsame Hash-Datenbank, in der Mitte 2018 rund 80.000 Bild- und 8.000 Videodateien enthalten waren. Die EU-Kommission will diese freiwillige Kooperation nun aber mit der Verordnung zur "Verbreitung terroristischer Inhalte im Internet" in eine gesetzliche Verpflichtung umwandeln.

Was und wer wird von der Verordnung tatsächlich erfasst?

Die Diskussion um eine europäische Verordnung für die "Verbreitung terroristischer Inhalte im Internet" kam auf, um die Verbreitung der Propagandavideos des IS zu stoppen. Der Verordnungstext soll nun terroristische Inhalte jeglicher Prägung erfassen. Umstritten ist unter den Abgeordneten, was eigentlich terroristische Inhalte sind. Die Definition entspricht der von Menschenrechtsorganisationen kritisierten Definition in der Terrorismusbekämpfungsrichtlinie (RL 2017/541): Sie bezieht sich auch auf "Methoden für das Begehen terroristischer Straftaten", womit Formen zivilen Ungehorsams wie zum Beispiel Blockadeaktionen betroffen sein könnten.

Probleme könnte es auch für Journalisten und Menschenrechtsorganisationen geben, die sich mit dem Thema Terrorismus befassen. Darauf wiesen bereits der UN-Sonderberichterstatter für Meinungsfreiheit, der UN-Sonderberichterstatter für das Recht auf Privatheit und die UN-Sonderberichterstatterin für den Grundrechtsschutz im Anti-Terror-Kampf hin. In einem offenen Brief warnen sieben zivilgesellschaftliche Organisationen, darunter die Gesellschaft für Informatik, das EU-Parlament davor, dass die Verordnung nicht nur große Plattformen wie Facebook und Youtube beträfe, sondern alle Internetdiensteanbieter. Dazu gehörten Blogs und Nachrichtenportale mit Kommentarfunktion, Foren, Videostreamingdienste, File-Sharing- und der Öffentlichkeit nicht zugängliche Cloud-Dienste.

Machine Learning gegen Terror?

Laut Entwurfstext sollen die Anforderungen zwar "keine generelle Verpflichtung zur Überwachung implizieren". Dies ist dem Umstand geschuldet, dass die Vorratsdatenspeicherung vor dem Europäischen Gerichtshof wegen einer "generellen Verpflichtung zur Überwachung" gescheitert ist. Dagegen deutet der Entwurf in Artikel 6 unter der Überschrift "proaktive Maßnahmen" an, dass mit "intelligenten Upload-Filtern" oder selbstlernender Software auch bislang unbekannte "terroristische Inhalte" erfasst werden könnten. Kritiker sehen darin ein Indiz, dass die Politik auf die PR-Aktivitäten der IT-Industrie in Sachen künstliche Intelligenz hereingefallen ist.

Unklar ist, ob und wann Inhalteanbieter den Rechtsweg beschreiten können. Im Begründungstext heißt es jedenfalls, dass sie mit den zuständigen Behörden hinsichtlich der notwendigen Maßnahmen "zusammenarbeiten" sollten. Falls beide Seiten sich nicht darüber verständigen können, "kann die Behörde den Diensteanbieter zu Maßnahmen verpflichten". Ob es sich dabei um einen Richter oder um die Polizei handelt, bleibt der Entscheidung des Mitgliedstaates überlassen. In Deutschland könnte diese Rolle beispielsweise das Bundeskriminalamt (BKA) übernehmen, das sich derzeit an dem Europol-Pilotprojekt "Internet Referral Management Application" (Irma) zu Uploadfiltern für Terrorpropaganda beteiligt. In dem Projekt werden Meldungen und Webadressen zu Terrorpropaganda automatisiert, händisch geprüft und gegebenenfalls an Provider weitergeleitet.

Entsprechend ist derzeit auch nicht einheitlich geregelt, wie ein Diensteanbieter gegen eine Maßnahme auf dem Rechtsweg vorgehen kann. Falls der Diensteanbieter "systematisch" den Verpflichtungen nicht nachkommt, drohen Geldbußen in Höhe von bis zu vier Prozent des weltweiten Jahresumsatzes.

Umstritten im Parlament

Im Parlament ist die Verordnung sehr umstritten. Selbst innerhalb der einzelnen Fraktionen gibt es unterschiedliche Ansichten, wie rechtsstaatlich mit Terrorinhalten im Netz umgegangen werden soll. Der beratende Binnenmarkt-Ausschuss IMCO sprach sich gegen eine Vorabkontrolle aller Inhalte aus. Er plädiert dafür, dass die Verordnung kein systematisches Monitoring des Nutzerverhaltens verlangen sollte. Der unter der Federführung von Julia Reda (Piraten/Grüne Fraktion) erstellte Bericht schlägt für kleinere Anbieter eine Zeit von mindestens acht Stunden vor, um einem Löschgesuch "unverzüglich" nachkommen zu müssen. Damit würde die Verordnung weiterhin mit der E-Commerce-Richtlinie kompatibel sein, die das Notice-and-Takedown-Verfahren regelt.

Im Kulturausschuss Cult wiesen Abgeordnete auf Grenzfälle hin, in denen ein automatisches System nur schwer richtige Entscheidungen treffen könnte. Beispielsweise könnte bereits ein Video der Gelben Westen, das mit martialischen Passagen aus der französischen Nationalhymne unterlegt ist, von einem selbstlernenden Uploadfilter als terroristisch eingestuft werden. Auch der Umgang Spaniens mit katalonischen Politikern wie Carles Puigdemont deute das Missbrauchspotenzial der Verordnung bereits an.

Abstimmung verschoben

Die Veränderungsvorschläge des Ausschusses fielen jedoch moderat aus: Statt bis zu vier sollen nur bis zu zwei Prozent des Jahresumsatzes als Geldbuße möglich sein. Und statt einer Stunde solle der Diensteanbieter lediglich "unverzüglich" reagieren. Über die Löschanordnungen könnte eine "unabhängige Behörde mit einschlägiger Expertise" entscheiden.

Die für den 21. März angesetzte Abstimmung im federführenden Innenausschuss Libe, die über den finalen Entwurf des Parlaments entscheiden soll, wurde auf April verschoben. Ein Termin steht noch nicht fest, weil es angesichts massiver Meinungsunterschiede noch keinen Kompromissvorschlag gibt.

Grundsatzurteil erwartet

Das Thema bleibt jedenfalls auf der politischen Tagesordnung: So wird derzeit das Notice-and-Take-Down-Verfahren der E-Commerce-Richtlinie vom Europäischen Gerichtshof in Luxemburg untersucht. Er verhandelt unter anderem den Fall eines gefälschten Facebook-Accounts, dessen beleidigenden Post Facebook nur zögerlich löschte. Ein Nutzer hatte Eva Glawischnig, ehemals Grünen-Vorsitzende in Österreich, beispielsweise als "Volksverräterin" bezeichnet.

Der österreichische Oberste Gerichtshof legte folgende Fragen zur Entscheidung vor: Darf Facebook einen Post nur in Österreich oder weltweit sperren? Muss das Unternehmen Vorsorge treffen, um "sinngleiche" Behauptungen künftig zu unterbinden? Muss es also wort- oder sinngleiche Inhalte suchen und löschen? Ein Urteil soll in wenigen Monaten fallen.  (csh)


Verwandte Artikel:
Europawahlen: Facebook will mit dpa Falschnachrichten bekämpfen   
(19.03.2019, https://glm.io/140107 )
Terrorinhalte: Brüssel fordert gesetzliche Schnelllöschung und Uploadfilter   
(12.09.2018, https://glm.io/136530 )
Übernahme: Facebook kauft Netzwerkspezialisten Sonics   
(14.03.2019, https://glm.io/140016 )
Netzpolitik: Regiert und reguliert endlich!   
(25.02.2019, https://glm.io/139624 )
Urheberrechtsreform: Startups sollen von Uploadfiltern ausgenommen werden   
(10.02.2019, https://glm.io/139292 )

© 1997–2019 Golem.de, https://www.golem.de/