Original-URL des Artikels: https://www.golem.de/news/ibm-dif-eine-million-bilder-fuer-gleichberechtigte-gesichtserkennung-1901-139070.html    Veröffentlicht: 30.01.2019 14:06    Kurz-URL: https://glm.io/139070

IBM Dif

Eine Million Bilder für gleichberechtigte Gesichtserkennung

Es ist nicht lange her, dass IBMs Gesichtserkennung schwach bei der Erkennung von Hautfarben und Geschlecht war. Der Datensatz Diversity in Faces soll das ändern. Er steht auch anderen Forschern auf Anfrage zur Verfügung.

In der momentan recht kontroversen Diskussion um Gesichtserkennung hat IBM einen Datensatz veröffentlicht, der eine Million verschiedene Gesichter enthält. Das Set nennen die Entwickler Diversity in Faces (Dif). Es konzentriert sich auf eine ethnisch und geschlechtlich möglichst gleichmäßig verteilte Sammlung von Gesichtern verschiedenen Alters. Diese können Ersteller und Forscher von Gesichtserkennungssoftware zum Trainieren ihrer Modelle nutzen, wie IBM im Blog-Post schreibt.

Die Sammlung besteht aus öffentlich zugänglichen Bildern, die unter der YFCC100M-Creative-Commons-Lizenz stehen. Sie können auf Anfrage bei IBM angefordert werden. Erste eigene Tests seien positiv, berichtet das Unternehmen: "Dif schafft eine besser ausbalancierte Verteilung und eine weiterreichende Abdeckung von Gesichtern im Vergleich zu vorherigen Datensätzen". Zudem sind sie in zehn verschiedenen und in der Wissenschaft üblichen Code-Schemata abrufbar, nach denen Software Merkmale untersucht. Diese beinhalten etwa Messwerte verschiedener Gesichtspunkte.

IBM macht Fortschritte im Vergleich zu 2017

IBM fügt neben Parametern wie der Hautfarbe, dem Alter und dem Geschlecht viele verschiedene Messpunkte ein, darunter Gesichtssymmetrie, Kontraste, die Position des Gesichtes, die Länge und Breite eines Gesichtes. Es hat sich in der Vergangenheit nämlich gezeigt, dass bisherige Ansätze nicht zum gewünschten Ziel führten. Die neuen Parameter sollen die Genauigkeit einer Gesichtserkennung verbessern.

Dass vorurteilsbehaftete Gesichtserkennungsalgorithmen ein reales Problem sind, hat eine Studie des MIT gezeigt. Gerade das bereits produktiv genutzte System von Amazon hat große Schwierigkeiten bei de Identifizierung von Ethnie und Geschlecht. So werden etwa 19 Prozent der hellhäutigen Frauen für Männer gehalten. Bei dunkelhäutigen Frauen liegt die Fehlerquote gar bei 31 Prozent. Im Jahr 2017 war IBM selbst betroffen: Dessen Gesichtserkennung konnte damals ebenfalls schlecht zwischen Gesichtern unterscheiden. 2018 hatte das Unternehmen schon Verbesserungen vorgenommen. Ein entsprechender Datensatz könnte diesen Prozess noch beschleunigen.  (on)


Verwandte Artikel:
Watson Workspace: IBM stellt seine KI-gestützte Teamchatsoftware ein   
(15.01.2019, https://glm.io/138736 )
Maschinelles Lernen: Gesichtserkennung ist zuverlässig - bei weißen Männern   
(12.02.2018, https://glm.io/132709 )
Cimon: Die ISS bekommt einen sensiblen Kommunikationsroboter   
(03.12.2018, https://glm.io/138034 )
VMware: In jeder AWS-Verfügbarkeitszone soll es auch VMware geben   
(06.11.2018, https://glm.io/137544 )
Machine Learning: IBM will mit Automatisierung Vorurteile von KI ausräumen   
(20.09.2018, https://glm.io/136662 )

© 1997–2020 Golem.de, https://www.golem.de/