Zum Hauptinhalt Zur Navigation

Anschlag von Halle: Wie die Verbreitung des Terrorvideos gestoppt wurde

Nach dem Anschlag von Halle hat Twitch das Video des Attentäters schnell gelöscht. Erst vor wenigen Tagen vereinbarten IT-Konzerne und EU-Kommission ein "Krisenprotokoll" für solche Situationen.
/ Friedhelm Greis
42 Kommentare News folgen (öffnet im neuen Fenster)
Der Täter wollte in die Synagoge von Halle eindringen, wo Menschen nun Blumen niedergelegt haben. (Bild: Fabrizio Bensch/Reuters)
Der Täter wollte in die Synagoge von Halle eindringen, wo Menschen nun Blumen niedergelegt haben. Bild: Fabrizio Bensch/Reuters

Wie lässt sich verhindern, dass Terroristen das Internet benutzen, um Videos ihrer Anschläge live zu streamen und ihre Botschaften ungehindert verbreiten können? Nach dem Terroranschlag von Halle an der Saale(öffnet im neuen Fenster) am 9. Oktober 2019 hat der Streamingdienst Twitch umgehend reagiert, um die Verbreitung des vom Attentäter aufgenommenen Videos zu verhindern. Schon nach dem Attentat im neuseeländischen Christchurch war debattiert worden , wie die Anbieter mit solchem Material umgehen sollten. Erst am vergangenen Montag verständigten sich mehrere große Internetkonzerne mit der EU-Kommission auf ein freiwilliges "Krisenprotokoll" .

Im Falle des Attentats von Halle hat Twitch nach eigenen Angaben schnell reagiert. Demnach streamte der Attentäter seine Tat 35 Minuten lang live, was von ungefähr fünf Personen live verfolgt wurde. In den 30 Minuten, bevor das Video gemeldet und entfernt worden sei, sei es von ungefähr 2.200 Personen angeschaut worden, hieß es weiter auf Twitter(öffnet im neuen Fenster) . Der Account sei zwei Monate vor der Tat angelegt und nur einmal für einen Streamingversuch genutzt worden.

Verbreitung über Telegram und Bitchute

Laut Twitch tauchte das Video innerhalb des Dienstes nicht in den Empfehlungen oder Verzeichnissen auf. Stattdessen hätten die Nutzer das Video offenbar über andere soziale Dienste geteilt. Nach der Löschung des Videos teilte Twitch demnach dessen Hashwert mit anderen Plattformen, um die Verbreitung des Inhalts zu verhindern. Einer US-amerikanischen Extremismusexpertin zufolge(öffnet im neuen Fenster) wurde das Video über Kanäle des Messengerdienstes Telegram geteilt und erreichte darüber mehr als 15.000 Accounts.

Nach der Löschung des Videos auf Twitch wurde es jedoch weiter über ein Videoportal verbreitet. Dieser auf Bittorrent basierende Dienst steht in der Kritik, weil dort rechtsterroristische und rechtsextreme Inhalte veröffentlicht werden.

Auf dem Video ist Medienberichten zufolge zu sehen(öffnet im neuen Fenster) , wie der Tatverdächtige, angeblich ein 27-Jähriger aus Sachsen-Anhalt, versucht, schwerbewaffnet in die Synagoge von Halle einzudringen. Nachdem er damit gescheitert war, tötete er eine zufällig vorbeikommende Passantin und einen Mann in einem Dönerladen. In dem Video soll der Tatverdächtige unter anderem den Holocaust leugnen.

Kooperation auf freiwilliger Basis

In der Europäischen Union wird schon seit längerem darüber diskutiert , wie Online-Plattformen "proaktiv" die Verbreitung solcher Inhalte verhindern können. Ein Verordnungsentwurf der EU-Kommission sieht vor, dass die Anbieter innerhalb von 60 Minuten reagieren müssen, falls doch Terrorinhalte veröffentlicht werden. Uploadfilter sind nicht vorgeschrieben. Ihr Einsatz liegt jedoch angesichts der schieren Masse an Uploads nahe.

Inzwischen haben sich die großen Online-Dienste schon auf freiwilliger Basis mit der EU-Kommission verständigt, in solchen Situationen untereinander und mit den Behörden zusammenzuarbeiten. Unternehmen wie Google, Facebook, Microsoft, Twitter, Snap oder Wordpress löschen im Rahmen des EU-Internetforums in Kooperation mit der europäischen Polizeibehörde Europol bisher terroristische Inhalte auf freiwilliger Basis. Dafür pflegen sie eine gemeinsame Hash-Datenbank, in der Mitte 2018 rund 80.000 Bild- und 8.000 Videodateien enthalten waren.

Krisenprotokoll vereinbart

Darüber hinaus verpflichteten sich die Teilnehmer des EU-Internetforums am vergangenen Montag in Luxemburg zu einem EU-Krisenprotokoll(öffnet im neuen Fenster) , "mit dem in Krisen die virale Verbreitung terroristischer und extremistischer Gewaltinhalte im Internet eingedämmt werden soll" . Das Protokoll soll dazu führen, dass die Behörden der EU-Mitgliedstaaten und Europol, das Global Internet Forum to Counter Terrorism (GIFCT) und Anbieter von Online-Diensten "rasch und abgestimmt reagieren können" . Darüber hinaus sollen im Falle einer Krise "die Strafverfolgungsbehörden und Online-Diensteanbieter auf freiwilliger Basis relevante Informationen über die Online-Inhalte (z. B. URL, audiovisuelle Medien und Metadaten) auf sicherem Wege und in Echtzeit austauschen" . Gleichzeitig würden strenge Datenschutz- und Grundrechtsgarantien gewahrt.

Der scheidende EU-Kommissionspräsident Jean Claude Juncker hatte die Entwicklung eines Krisenprotokolls anlässlich der Unterzeichnung des sogenannten Christchurch-Aufrufs (öffnet im neuen Fenster) im Mai 2019 angekündigt. Auch das Global Internet Forum to Counter Terrorism (GIFTC) will dazu beitragen, den Neun-Punkte-Plan des Christchurch-Aufrufs(öffnet im neuen Fenster) umzusetzen. An dem 2017 von Facebook, Microsoft, Twitter und Youtube gegründeten Forum sind inzwischen auch Amazon, LinkedIn und Whatsapp beteiligt. Schon im September(öffnet im neuen Fenster) sei das eigentlich für 2019 vorgesehene Ziel erreicht worden, 200.000 Hashwerte und digitale Fingerabdrücke von unzulässigen Inhalten gesammelt in einer Datenbank zusammenzutragen.


Relevante Themen