Zum Hauptinhalt Zur Navigation

Predictive Policing: Amnesty kritisiert Polizei für diskriminierende Algorithmen

In einem Bericht kritisiert Amnesty International das sogenannte Predictive Policing in den Niederlanden. Schon das Design sei diskriminierend.
/ Sebastian Grüner
11 Kommentare News folgen (öffnet im neuen Fenster)
Die Polizei setzt in den Niederlanden nicht nur auf Präsenz, sondern auch auf Predictive Policing. Amnesty kritisiert diesen Ansatz. (Bild: Pierre Crom/Getty Images)
Die Polizei setzt in den Niederlanden nicht nur auf Präsenz, sondern auch auf Predictive Policing. Amnesty kritisiert diesen Ansatz. Bild: Pierre Crom/Getty Images

Ähnlich wie seit Jahren in Deutschland testet auch die Polizei in den Niederlanden das sogenannte Predictive Policing. Mithilfe von Softwaresystemen soll dabei die Arbeit der Polizei unterstützt und sollen so im besten Fall auch Straftaten verhindert werden. Die Menschenrechtsorganisation Amnesty International hat einen dieser Tests der Polizei selbst ausgewertet(öffnet im neuen Fenster) und kommt zu dem Schluss, dass das System selbst schon auf diskriminierenden Annahmen beruhe und diese Diskriminierung damit in der Polizeiarbeit schlicht reproduziert werde.

Im konkreten Fall handelt es sich um das sogenannte Sensing Project in der niederländischen Stadt Roermond. Die Polizei nutzt das System demnach, um gegen "mobiles Banditentum" vorzugehen. Damit bezeichnet die Polizei bandenmäßigen Diebstahl durch Personen, die die Polizei osteuropäischen Nationalitäten zuordnet. Schon vor Beginn des Projekts bestätigte die Polizei diese Idee einer niederländischen Zeitung(öffnet im neuen Fenster) . Als Risiken, die dazu führen können, in diese Kategorie einsortiert zu werden, gehören demnach neben Nummernschildern und dem Zulassungsland eines Autos etwa auch, ob dieses voll besetzt ist oder welche Farbe es hat.

Algorithmen mit Vorurteilen, aber ohne Wirkung

Amnesty kritisiert hierbei nicht nur die "wahllose Massenüberwachung" durch Kameras. Darüber hinaus schreibt die Organisation, dass diese Systeme der Polizei zwar als neutral gepriesen würden, "Vorurteile und Stereotypen sind in den Modellen und Algorithmen jedoch eingebettet" , heißt es in der Auswertung. Und weiter: "Dies führt zu diskriminierenden Ergebnissen mit höheren Risikowerten für bestimmte Gruppen."

Besonders gut zeigt sich dies wohl daran, dass zwar rund 60 Prozent der Verdächtigen in Diebstahlfällen eine niederländische Staatsangehörigkeit haben, aber nur rund 20 Prozent der Verdächtigen über einen Pass aus Osteuropa verfügen. Durch den Fokus auf das "mobile Banditentum" vermittele "die niederländische Polizei den Eindruck, dass der Großteil der Taschen- und Ladendiebstähle in Roermond von Personen mit osteuropäischer Nationalität begangen wird" , schreibt Amnesty.

"Es handelt sich um ein inhärent diskriminierendes System, das erstellt worden ist, Menschen osteuropäischer Nationalität Racial Profiling zu unterziehen und auf diese abzuzielen" , sagt dazu Merel Koning von Amnesty. Letztlich bestätigt die Polizei laut Amnesty sogar, dass sie die Wirksamkeit des Systems zur Prävention von Diebstählen nicht nachweisen könne.

In Deutschland testet die Polizei immer wieder solche Systeme, auch selbst entwickelte , obwohl deren technischer Nutzen seit Jahren umstritten ist. In letzter Zeit arbeiten verschiedene Behörden dafür vermehrt mit dem US-Unternehmen Palantir zusammen . Aufgrund der hohen Fehlerquote und damit verbundener Diskriminierung haben zuletzt Unternehmen wie Amazon, IBM und Microsoft aber aufgehört, ihre Gesichtserkennungssysteme an Polizeibehörden zu verkaufen.


Relevante Themen