Zum Hauptinhalt Zur Navigation

Chatkontrolle: Ende-zu-Ende-Verschlüsselung muss bleiben!

Die EU-Kommission möchte die E2E-Verschlüsselung von Messengern wie Whatsapp mit Uploadfiltern aushebeln. Das gefährdet unsere Demokratie.
/ Moritz Tremmel
61 Kommentare News folgen (öffnet im neuen Fenster)
EU-Kommission wil E2E-Verschlüsselung aushebeln. (Bild: Kerstin Riemer/Pixabay)
EU-Kommission wil E2E-Verschlüsselung aushebeln. Bild: Kerstin Riemer/Pixabay

Dass der Kampf gegen Kindesmissbrauch wichtig ist und Kinderpornografie ekelhaft, da sind wir uns alle einig. Aber muss Kinderpornografie deshalb auch immer wieder als Vorwand für Überwachungsforderungen herangezogen werden? Wahrscheinlich schon, denn wie kann man sonst so gut von dem Problem der Maßnahmen ablenken: der schrittweisen Abschaffung der Grund- und Menschenrechte? Im aktuellen Fall soll nicht wie kürzlich die Vorratsdatenspeicherung gerechtfertigt werden, sondern die Abschaffung der Ende-zu-Ende-Verschlüsselung bei der Kommunikation im Internet, allen voran in Messengern wie Whatsapp, Threema oder Signal.

Ein Gesetzentwurf der EU-Kommission will dies für die nächsten fünf Jahre erlauben . Wie das technisch aussehen könnte, hat sich die EU-Kommission gemeinsam mit Fachleuten von Microsoft, Google, verschiedenen Polizeibehörden, dem Geheimdienst GCHQ und mehreren Opferverbänden überlegt.

Herausgekommen sind einige halbgare technische Vorschläge (PDF)(öffnet im neuen Fenster) , die die Ende-zu-Ende-Verschlüsselung auf verschiedene Weise aushebeln, um die übertragenen Inhalte auswerten zu können. Jeder einzelne davon ist jedoch eine Gefahr für die Grund- und Menschenrechte, die Demokratie und deren progressive Weiterentwicklung. Die Technik legt den Grundstein für eine Filter- und Zensurinfrastruktur. Deshalb muss es in demokratischen Gesellschaften heißen: Finger weg von der Ende-zu-Ende-Verschlüsselung!

Mit Photo-DNA Inhalte erkennen

Letztlich geht es in dem Papier darum, bereits bestehende Scan-Technik bei Cloud- und Social-Media-Diensten für Messenger fruchtbar zu machen. Konkret geht es um Microsofts Photo-DNA , die auch als Beispiel genannt wird und unter anderem bei Google, Facebook, Twitter und Microsoft eingesetzt wird.

Diese vermisst auf den Plattformen hochgeladene Inhalte und gleicht den errechneten Fingerabdruck, die DNA des Photos, mit einer Datenbank ab, in die Fingerabdrücke zuvor vermessener Missbrauchsbilder gespeichert sind. Die Technik sichert im Gegensatz zu eindeutigen Hashes, dass auch leicht veränderte Bilder erkannt werden.

Wer die Technik mit den umstrittenen Uploadfiltern assoziiert, liegt letztlich richtig. Technisch wollen beide das Gleiche: Inhalte automatisiert anhand einer Vergleichsdatenbank erkennen, auch wenn sie leicht abgewandelt wurden. Allerdings ging es bisher darum, diese Inhalte - seien sie urheberrechtlich geschützt, terroristisch, kinderpornografisch oder aus anderen Gründen nicht erwünscht - in Daten zu detektieren, die ein Unternehmen ohnehin einsehen kann.

Uploadfilter hebeln die Verschlüsselung aus

Mit der Ende-zu-Ende-Verschlüsselung - die insbesondere bei der privaten Kommunikation per Messenger verwendet wird - funktioniert das jedoch nicht. Zum Glück! Sichert die Verschlüsselung doch die Uneinsehbarkeit der privaten und intimen Kommunikation. Doch diesen Schutz möchte die EU-Kommission mit ihren Vorschlägen aufheben. Eine ähnliche Initiative gibt es mit dem Earn It Act auch in den USA .

Dabei sollen mit dem sogenannten Client-Side-Scanning die eigentlich weiterhin Ende-zu-Ende-verschlüsselten Inhalte vor der Verschlüsselung oder nach dem Entschlüsseln auf dem jeweiligen Gerät vom Messenger analysiert werden. Der so erstellte Fingerabdruck soll dann mit einer Datenbank abgeglichen werden. Dies könne lokal auf dem Gerät geschehen, aber auch auf dem Server des Anbieters oder einer dritten Partei, so heißt es in dem Papier.

Reklame

Hacking & Security: Das umfassende Hacking-Handbuch mit über 1.000 Seiten Profiwissen. 3., aktualisierte Auflage des IT-Standardwerks (Gebundene Ausgabe)

Jetzt bestellen bei Amazon (öffnet im neuen Fenster)

Findet ein Match zwischen dem Fingerabdruck und der Datenbank statt, wird der ursprünglich verschlüsselte Inhalt an den Anbieter oder eine staatliche Stelle ausgeleitet. Im Abgleich-auf-dem-Server-Szenario fragt der Server die Datei sogar selbst an - ein Schelm, wer dabei Böses denkt.

Die Inhalte landen also nicht mehr nur an den beiden Enden, sondern je nach Ergebnis einer automatisierten Analyse auch bei Dritten - im Falle des Abgleich-auf-dem-Server-Szenarios kann sogar prinzipiell jedweder Inhalt angefragt werden. Letztlich handelt es sich also um eine Backdoor zu jedweder privaten Kommunikation.

Eine Demokratie braucht Ende-zu-Ende-Verschlüsselung

Selbst wer den Unternehmen und staatlichen Institutionen blind vertraut, sollte bedenken, dass die Backdoor auch für Kriminelle und Geheimdienste nur ein Hack entfernt ist. Dabei gibt es allein schon unzählige Beispiele, bei denen Angestellte von Unternehmen missbräuchlich auf ihnen anvertraute Daten zugegriffen haben, beispielsweise um an intime Fotos zu gelangen .

Nicht besser sieht es bei staatlichen Institutionen aus, allein die an Polizeicomputern abgefragten Daten für Morddrohungen der NSU 2.0 sollten als Begründung reichen - ganz zu schweigen vom Loveint bei Geheimdiensten(öffnet im neuen Fenster) .

Doch neben den konkreten Missbrauchsfällen durch einzelne Angestellte, Firmen oder Behörden legt die Technik auch den Grundstein für eine umfassende staatliche oder privatwirtschaftliche Überwachung und Zensur. Denn der Technik ist es egal, nach welchen Inhalten gefiltert, welche Inhalte vom Server angefragt werden. Einmal eingeführt, wird sie sicherlich nicht nur gegen Kinderpornografie genutzt werden. Ein Blick nach China genügt, um zu sehen, wohin die Reise mittelfristig gehen könnte - oder nach den Diskussionen zu Uploadfiltern wohl eher wird.

Das Ende der Ende-zu-Ende-Verschlüsselung verhindern

Dabei haben wir noch nicht einmal über die Probleme gesprochen, wenn sie erst mal nur zur Überwachung von kinderpornografischen Inhalten verwendet wird. Denn schon hier dürfte durch eine erwartbar hohen False-Positive- und False-Negative-Rate - also Inhalte, die als etwas erkannt werden, was sie nicht sind oder Inhalte, die als etwas nicht erkannt werden, was sie aber sind - etliche private und intimste Inhalte, die rein gar nichts mit Kinderpornografie zu tun haben, auf den Servern der Anbieter oder des Staates landen.

Damit nicht nur bereits Bekanntes erkannt wird und auch sprachlicher Missbrauch geahndet werden kann, wird in einem weiteren Vorschlag des Kommissions-Papiers eine Detektion verdächtiger Inhalte durch eine angelernte künstliche Intelligenz vorgeschlagen. Damit dürfte die False-Positive-Rate durch die Decke schießen. Ein extrem doofer Vorschlag!

All diese Ideen besiegeln nichts anderes als das Ende der Ende-zu-Ende-Verschlüsselung. Die Sicherheit des verschlüsselten Raumes, in dem auch private oder intime Dinge kommuniziert und geteilt werden können, in dem man nicht bei jeder Handlung überwacht, vermessen und kommerzialisiert wird, würde abgeschafft. Uns Journalisten würde die Möglichkeit genommen unsere Quellen auf dem Stand der Technik zu schützen, kritische Stimmen in Diktaturen könnten sich nicht mehr erheben, Aktivisten sich nicht mehr vernetzen und sensible Daten könnten nicht mehr sicher übermittelt werden.

Reklame

Hacking & Security: Das umfassende Hacking-Handbuch mit über 1.000 Seiten Profiwissen. 3., aktualisierte Auflage des IT-Standardwerks (Gebundene Ausgabe)

Jetzt bestellen bei Amazon (öffnet im neuen Fenster)

Das sind nur ein paar wenige Beispiele. Die Ende-zu-Ende-Verschlüsselung sichert tagtäglich rund um den Globus unsere Grund- und Menschenrechte. Es ist also technisch und politisch eine ausgesprochen dumme Idee, die von der EU-Kommission erarbeiteten Vorschläge umzusetzen. Sie sind ein Sargnagel für die Demokratie.

IMHO ist der Kommentar von Golem.de. IMHO = In My Humble Opinion (Meiner bescheidenen Meinung nach) .


Relevante Themen