Original-URL des Artikels: https://www.golem.de/news/maschinelles-lernen-gesichtserkennung-im-stadion-liegt-zu-92-prozent-falsch-1805-134258.html    Veröffentlicht: 07.05.2018 13:15    Kurz-URL: https://glm.io/134258

Maschinelles Lernen

Gesichtserkennung im Stadion liegt zu 93 Prozent falsch

Die Waliser Polizei hat im Finale der Champions League 2017 170.000 Gäste mit Gesichtserkennung gescannt und davon mehr als 2.000 als kriminell identifiziert. Davon waren jedoch nur sieben Prozent schuldig. Das System wird auch genutzt, um das Potenzial einer kriminellen Tat in Emotionen zu erkennen.

Beim Champions-League-Finale 2017 wurde Gesichtserkennungssoftware mit sehr geringer Genauigkeit eingesetzt. Die Software hat 170.000 Zuschauer mit in Datenbanken gespeicherten Täterprofilen verglichen. 2.470 hat der Algorithmus als Kriminelle identifiziert, wobei das auf lediglich 173 Verdächtige tatsächlich zutraf. Das berichtet der britische Fernsehsender BBC. Die Falschquote von 93 Prozent ist ein erstes Ergebnis des Feldtests, den die Waliser Polizei seit Juni 2017 durchführt.

Dort wird das System zudem verteidigt. Die zuständige Polizei gibt dabei zu: "Keine Gesichtserkennung ist zu 100 Prozent genau", allerdings seien dadurch zumindest 450 Festnahmen durchgeführt worden. Wohlgemerkt sind das noch immer knapp 280 zu viel. Die Polizei sagt: "Zu den resultierenden Verurteilungen gehören sechs Jahre Gefängnis für Raub und viereinhalb Jahre Haft für Diebstahl", berichtet das britische Nachrichtenmagazin The Guardian.

Dass der Algorithmus so ungenau ist, sei die Schuld der Referenzbilder von niedriger Qualität, heißt es. Das System nutzt Datenbanken der Behörde Interpol und des Veranstalters Uefa als Grundlage - etwa 500.000 Einträge. Mittlerweile sei die Software mit 28 Prozent Erfolgsquote bereits genauer. Es scheint, als wäre das Machine-Learning-Modell noch nicht lang genug trainiert worden, denn auf anderen Veranstaltungen wurden von ihm ebenfalls viele falsche Anschuldigungen gemacht. Bei einem Rugby-Spiel wurden 42 und bei einem Boxkampf 46 Unschuldige als kriminell identifiziert.

Die Bereitschaft zur Kriminalität in Gesichtern erkennen

Ein positives Beispiel ist ein Konzert in Cardiff, bei dem sechs Beschuldigte auch tatsächlich kriminell waren. Die Gruppe Big Brother Watch kritisiert das System trotzdem. Es sei ein gefährlich ungenaues Entscheidungswerkzeug und schränke Freiheitsrechte ein, heißt es in einem Post auf Twitter.

Die Polizei scheint Gesichtserkennung aber nicht nur für das Erkennen von Tätern, sondern auch für die Identifizierung potenzieller Täter einzusetzen. "Die Technik hat außerdem dabei geholfen, verwundbare Leute in Krisenzeiten zu erkennen", heißt es in der Aussage gegenüber dem Guardian. Das Machine-Learning-System soll also anscheinend nicht nur Gesichter, sondern wohl auch Emotionen analysieren und zuordnen können. Wie erfolgreich es das tut, ist nicht klar.  (on)


Verwandte Artikel:
Künstliche Intelligenz: Obama-Imitation beleidigt den US-Präsidenten Trump   
(18.04.2018, https://glm.io/133913 )
Glasfaserkabel zerstört: Zehntausende Haushalte in Berlin ohne Telefon und Internet   
(18.02.2018, https://glm.io/132839 )
Vorratsdatenspeicherung: Warum Provider keine Verdächtigen mehr orten wollen   
(03.04.2018, https://glm.io/133648 )
Bayou: KI erstellt selbstständig Java-Programmteile   
(27.04.2018, https://glm.io/134107 )
KI: Machine-Learning-System scannt Personen als 3D-Modelle ein   
(18.04.2018, https://glm.io/133922 )

© 1997–2019 Golem.de, https://www.golem.de/