Machine Learning: IBM will mit Automatisierung Vorurteile von KI ausräumen
IBM entwickelt eine Software, die automatisch die Entscheidungen von KI-Systemen nachvollziehen und eventuelle Vorurteile herausfinden kann, etwa wenn bestimmte Ethnien in einer Untersuchung offensichtlich benachteiligt werden. Das System zeichnet dazu Daten und den Quellcode auf.

Das Forschungsteam von IBM Research entwickelt eine Software, die verschiedene Machine-Learning-Systeme automatisch analysiert. Das soll dabei helfen, die Gründe für eventuell vorurteilsbehaftete Entscheidungen innerhalb von trainierten Modellen zu finden. Die Software erkennt die Diskriminierung einzelner Individuen in unterschiedlichen Gruppen, wenn diese eigentlich gleiche Parameter erfüllen. Die Software untersucht allerdings auch verschieden bewertete Gruppen, wenn ein KI-System für sie unterschiedliche Entscheidungen trifft.
Wichtig ist es dem Forscherteam, dass die Quelle von offensichtlich beeinflussten Ergebnissen erkannt wird. Als Beispiel nennen die Wissenschaftler einen Datensatz, der sich auf Haushypotheken bezieht. Wenn sich herausstellt, dass es beispielsweise negative Tendenzen gegenüber Schwarzen gibt, dann analysiert die Software diese Zielgruppe genau. Sie kann etwa herausfinden, dass speziell schwarze Frauen eines bestimmten Alters besonders herausstechen und bietet Lösungen an, um das Ergebnis gleichmäßiger zu gestalten. Meist sind dabei nicht die Machine-Learning-Systeme, sondern die Daten inhomogen. Auf Basis dieser treffen Algorithmen ihre Entscheidungen.
Die Software generiert eigene Testszenarien und lässt sie durch trainierte Machine-Learning-Modelle laufen. Die Ergebnisse stellt sie laut IBM "mit Erklärungen in natürlicher Sprache" dar. Grafiken sollen dabei helfen, Entscheidungen der untersuchten KI zu verstehen.
Um die Regeln der Datenschutz-Grundverordnung einzuhalten, kann IBMs Software den Entwicklungsprozess eines KI-Systems aufzeichnen und abrufbereit machen. Das Programm protokolliert alle wichtigen Schritte der Entwicklung eines Algorithmus, darunter das Sammeln von Quelldaten, Modelltraining, Einsatz einer Modellgeneration und weitere Trainingsschritte. Aufgezeichnet werden die Daten und der Quellcode des Modells.
Anhand dieser Informationen kann die Software die Entscheidungsfindung eines KI-Systems und die dafür genutzten Kriterien grafisch darstellen, beispielsweise warum ein Versicherungsanspruch nicht genehmigt wird.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Wenn ich das so lese "automatisch", heißt ja eine "KI" überprüft eine KI, bzw. zumindest...