Künstliche Intelligenz: Geheime KI ohne Risikoabschätzung bei Sicherheitsbehörden
Polizeien und Geheimdienste in Deutschland nutzen KI-Systeme. Wofür, soll aber geheim bleiben. Eine Risikoabschätzung gibt es kaum.

Kommerziell genutzte KI-Systeme sind oft diskriminierend. Deshalb hat Twitter etwa Bug-Bounties dafür ausgeschrieben, große Software-Unternehmen wie Microsoft oder Deepmind halten die Software deshalb teils zurück. Darüber hinaus hat die stark umstrittene Nutzung von KI-Techniken durch die Polizei in den USA mehrfach zu falschen Beschuldigungen oder anderen Problemen geführt, so dass etwa die Nutzung von Gesichtserkennungssystemen ausgesetzt worden ist. Von diesen Entwicklungen scheint bei deutschen Behörden jedoch noch nicht viel angekommen zu sein, wie die Antwort auf ein kleine Anfrage von Anke Domscheit-Berg (Die Linke) nahelegt.
Domscheit-Berg fragte die Bundesregierung einerseits nach dem Einsatz von KI-Systemen in Bundesbehörden und Ministerien sowie andererseits danach, ob und welche Risikoklassenmodelle genutzt werden, um diesen Einsatz zu bewerten. Die Frage nach der Risikoabschätzung wird demnach in den meisten Fällen nicht beantwortet oder ist offenbar falsch verstanden worden. Darüber hinaus hält sich die Bundesregierung in ihrer Antwort insbesondere zum Einsatz bei den Sicherheitsbehörden bedeckt und stuft diese Informationen teils als geheim ein.
Beantwortet worden sind die Fragen nach dem Einsatz überhaupt nicht zu den KI-Systemen, die beim Bundesamt für Verfassungsschutz (BfV) sowie zu zwei Systemen, die beim Bundeskriminalamt (BKA) im Einsatz sind. Darüber hinaus werden 3 KI-Systeme beim Zitis (Zentrale Stelle für Informationstechnik im Sicherheitsbereich), 2 Systeme bei der Bundespolizei sowie 2 weitere beim BKA als "Nur für den Dienstgebrauch" eingestuft. Domscheit-Berg erhält damit zwar eine Antwort, darf diese aber nicht der Allgemeinheit zur Verfügung stellen.
Die Politikerin schreibt dazu: "Ausgerechnet dort, wo potenziell Grundrechte von Bürger:innen besonders berührt sein können, wo also auch Risiken durch einen fehlerhaften Einsatz von KI besonders hoch sind, wird die parlamentarische Kontrolle sowie die gesellschaftliche Debatte eklatant eingeschränkt. Dies widerspricht dem Grundgedanken aller Empfehlungen der Gremien, die sich mit den ethischen Folgen des Einsatzes von KI befasst haben." Probleme für die Grundrechte von Menschen durch den KI-Einsatz sieht die Politikerin außerdem durch die Verwendung im Bundesamt für Migration und Flüchtlinge (BAMF).
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Wir könnten unsere Politiker durch KI ersetzen XD