Biometrische Gesichtserkennung: Was die Änderungsvorschläge am Sicherheitspaket bedeuten

Mit der Hilfe eines zusätzlichen Entschließungsantrags wollen die Fraktionen von SPD, Grünen und FDP eine grundrechtskonforme Umsetzung der biometrischen Gesichtserkennung erreichen. Der unverbindliche Antrag soll ebenso wie der entsprechende Gesetzentwurf am 18. Oktober 2024 vom Bundestag verabschiedet werden, so dass der Bundesrat noch am selben Tag über das Sicherheitspaket abstimmen kann. Nach Ansicht von Kritikern sind die Änderungswünsche jedoch alles andere als ausreichend.
Nach scharfer Kritik von Experten einigte sich die Ampelkoalition in der vergangenen Woche auf Änderungen am Sicherheitspaket . Die Pläne erlauben aber weiterhin den biometrischen Abgleich von Gesichtsfotos mit allgemein zugänglichen Bildern aus dem Internet. Allerdings gibt es Einschränkungen, was den Einsatz des Verfahrens betrifft.
Verordnung soll Details regeln
Die Änderungsanträge, die am Mittwoch von Innenausschuss des Bundestags beschlossen werden sollen, liegen Golem.de vor und wurden bereits von Netzpolitik.org veröffentlicht(öffnet im neuen Fenster) . Darin finden sich keine technischen Vorgaben zu dem Datenabgleich.
Stattdessen wird die Bundesregierung ermächtigt, per Rechtsverordnung "das Nähere zu dem technischen Verfahren" und "den Sicherungsmaßnahmen zur Verhinderung unbefugter Datenzugriffe" zu bestimmen. Ebenfalls soll sie, soweit eine Speicherung der öffentlich zugänglichen Lichtbild-, Video- und Audiodateien technisch erforderlich ist, nähere Vorgaben zu Art, Umfang und Dauer der Speicherung festlegen.
In der Verordnung bestimmt die Regierung demnach "Eingabe- und Zugangsberechtigung, Speicher- und Löschfristen, Art der zu speichernden Daten, Personenkreis, der von der Speicherung betroffen ist, Dauer der Speicherung, Protokollierung" .
Datenschützer müssen angehört werden
Das bedeutet: Rein rechtlich könnten die Ermittlungsbehörden wie das Bundeskriminalamt (BKA) durchaus eine Datenbank mit Internetfotos aufbauen, wie sie beispielsweise die Anbieter Clearview AI oder Pimeyes angelegt haben. Allerdings nicht dauerhaft. Denn sämtliche Daten, die für einen Abgleich erhoben wurden, sind weiterhin unverzüglich zu löschen, "sofern sie keinen konkreten Ermittlungsansatz für den Ausgangssachverhalt aufweisen" .
Würde diese Vorgabe konsequent umgesetzt, wäre es in der Praxis wohl nur möglich, gezielte Domains oder Foren zum Datenabgleich auszuwerten. Dieses Konzept verfolgt auch der Entschließungsantrag, wie weiter unten erläutert wird.
Der oder die Bundesdatenschutzbeauftragte soll nicht nur "mindestens alle zwei Jahre" den Einsatz der Gesichtserkennung kontrollieren. Zudem ist die Behörde auch vor dem Beschluss der Verordnung anzuhören. Die amtierende Behördenchefin Louisa Specht-Riemenschneider kritisierte in einer Stellungnahme das Fehlen von technischen Vorgaben . Die Polizei müsse zudem "für jeden Abgleich von Gesichtsbildern den aktuellen Lichtbildbestand des Internets erheben" .
In dem Entschließungsantrag fordern die Koalitionsfraktionen die Bundesregierung dazu auf, bei der Rechtsverordnung zum technischen Verfahren bestimmte Punkte zu beachten. So soll der flächendeckende Download von Internetfotos generell untersagt werden.
Nur bestimmte Bereiche zum Download erlaubt
"Der Abgleich mit biometrischen Daten aus im Internet allgemein öffentlich zugänglichen Lichtbild- und Videodateien darf nur bereichsspezifisch und nicht flächendeckend erfolgen" , heißt es in dem zweiseitigen Antrag.
Die bereichsspezifischen Datenquellen müssen sich demnach auf Plattformen, Domains oder allgemein öffentlich zugängliche Bereiche des Internets beschränken, "die in unmittelbarem Zusammenhang mit dem jeweiligen Ermittlungszweck stehen" . Deren Relevanz für den konkreten Ermittlungszweck "muss als erforderlich und geeignet erkennbar sein" .
Unklar ist, wie groß diese Bereiche sein dürfen. So war die Internetsuche nach der RAF-Terroristin Daniela Klette erfolgreich , weil Tools wie Pimeyes offenbar den Bestand kompletter sozialer Medien wie Facebook oder Instagram auswerten.
Darüber hinaus will die Koalition die Verwendung von automatisierten Anwendungen zur Datenverarbeitung ausschließen, "die Datenbanken zur Gesichts- oder Stimmerkennung durch das ungezielte Auslesen von Gesichtsbildern oder Stimmproben aus dem Internet erstellen oder erweitern" . Private Anbieter für solche Dienstleistungen sollen nur aus der EU, dem Schengen-Raum oder Israel kommen.
BKA will beispielsweise Foren auslesen
Wie das Verfahren umgesetzt werden könnte, deutete BKA-Vizepräsidentin Martina Link in einer Anhörung des Innenausschusses an. Denkbar sei, dass man nach bestimmten Suchparametern eine vorübergehende Speicherung von Daten ermögliche und diese dann gezielt mit den Daten abgleiche, die auf polizeilicher Ebene gespeichert seien, sagte Link.
Mit Blick auf das Messerattentat von Solingen sagte sie, dass in einem Video die Person zwar nicht erkennbar, aber die Stimme hörbar gewesen sei. "Wenn man in einem solchen Fall sehr frühzeitig eine solche Stimme hätte, bestünde zum Beispiel die Möglichkeit, das gegen einen ausgewählten Datenbestand beispielsweise aus entsprechenden öffentlichen Foren oder Ähnlichem abzugleichen, in dem solche Personen agieren" , sagte die BKA-Vertreterin.
KI-Reallabore nutzen
Sowohl der Änderungs- als auch der Entschließungsantrag weisen darauf hin, dass bei der Entwicklung und dem Einsatz von Systemen auf Basis künstlicher Intelligenz (KI) die Vorgaben der KI-Verordnung einzuhalten seien. "Zur Erprobung von KI-Systemen sollte das Instrument der KI-Reallabore Anwendung finden" , heißt es in dem Änderungsantrag. Artikel 5 der KI-Verordnung verbietet ohne Ausnahmemöglichkeit das Inverkehrbringen, die Inbetriebnahme für diesen spezifischen Zweck oder die Verwendung von KI-Systemen, "die Datenbanken zur Gesichtserkennung durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder von Überwachungsaufnahmen erstellen oder erweitern" .
Darüber hinaus stellt der Änderungsantrag klar, welche "allgemein öffentlich zugänglichen Daten" im Internet abgegriffen werden dürfen. Dazu zählen demnach nur Daten, "wenn sie jede Person ohne oder nach vorheriger Registrierung, Genehmigung oder Entgeltzahlung nutzen kann" . Nicht zulässig seien Daten, "die einer spezifischen Schwelle unterzogen sind, beispielsweise der Einstellung von Daten in sozialen Medien für einen begrenzten Kreis, dessen Zugang einer Kontrolle unterzogen wird" . Privatkommunikation über Messengerdienste von sozialen Medien könnten nicht von der Maßnahme erfasst werden.
Die Änderungsvorschläge gehen den Kritikern der Pläne jedoch nicht weit genug.
"Größte Enttäuschung seit Beginn der Ampelregierung"
In einer gemeinsamen Stellungnahme(öffnet im neuen Fenster) zeigten sich Vertreter von acht zivilgesellschaftlichen Organisationen enttäuscht und rufen zu einer Demonstration am 16. Oktober 2024 um 13 Uhr vor dem Brandenburger Tor in Berlin auf.
"Das sogenannte Sicherheitspaket ist die größte Enttäuschung im Hinblick auf Bürgerrechte seit Beginn der Ampelregierung. Unter dem Eindruck des Anschlags in Solingen und mehrerer Landtagswahlen ist die Koalition von ihrem Anspruch auf eine vorausschauende, evidenzbasierte und grundrechtsorientierte Sicherheits- und Innenpolitik abgerückt" , heißt es in der Stellungnahme des Bündnisses Gesichtserkennung Stoppen, dem Organisationen wie der Chaos Computer Club (CCC), Amnesty International, D64, Algorithmwatch, Digitale Freiheit und Load angehören.
CCC will Überwachung sabotieren
"Es gibt keine Möglichkeit, Bilder von Verdächtigen mit denen aus dem Internet zu vergleichen, ohne eine Super-Datenbank mit Bildern von allen anzulegen. Das gefährdet die Versammlungsfreiheit, Meinungsfreiheit und Autonomie in einer demokratischen Gesellschaft" , sagte Matthias Spielkamp von Algorithmwatch.
CCC-Sprecherin Elina Eickstädt bezeichnete die Änderungsanträge als "Augenwischerei" . Der Hackerverein müsse als Reaktion auf die Pläne "ernsthaft darüber nachdenken, wie Überwachungsmaßnahmen sabotiert und abgeschaltet werden können" .



