Original-URL des Artikels: https://www.golem.de/news/maschinelles-lernen-ibm-entwickelt-ki-die-ethischen-vorgaben-folgt-1807-135505.html    Veröffentlicht: 17.07.2018 10:47    Kurz-URL: https://glm.io/135505

Maschinelles Lernen

IBM entwickelt KI, die ethischen Vorgaben folgt

Ist ein Video für Kinder geeignet? Ein selbstlernendes Empfehlungssystem soll das anhand von vorgegebenen ethischen Werten herausfinden. IBM-Forscher arbeiten an der KI, die aufgestellte Regeln auf große Datenmengen anwenden kann - in Zukunft vielleicht auf das Internet.

Forscher bei IBM arbeiten an einem KI-System, das nach ethischen und moralischen Vorgaben handeln können soll. Konkret geht es um Software, die Inhalte aus dem Netz nach verschiedenen Kriterien aussucht und Nutzern anbietet. Das berichtet das IT-Businessmagazin Venturebeat. Dabei sollen möglichst viele Ergebnisse bei gleichzeitigem Einhalten der Regeln angezeigt werden. Geführt wird das Forschungsteam von der IBM-Forscherin und Leiterin der KI-Ethik-Abteilung Francesca Rossi.

Eine solche Methode erfordert an sich kein maschinelles Lernen, beispielsweise wenn einem Programm feste Regeln vorgegeben sind, die Nutzer per Sprach- oder Textkommando abrufen können. "Es ist einfach eine Regelsammlung zu erstellen", sagt IBM-Mitforscher Nicholas Mattel. Das Problem ist, dass sich solche vorgegebenen Regeln nicht allgemein auf den Inhalt des gesamten Internets anwenden lassen.

Aus diesem Grund lernt das KI-System anhand von Beispielen deren Eigenschaften und stuft diese etwa als jugendschutzwürdig oder als für Kinder empfehlenswert ein. Das Forschungsteam konnte das bisher an einer Software für Videovorschläge testen. Mit dem Nach-Beispiel-lernen-Ansatz könnte sich das aber auch auf Literatur, Musik, Bilder oder andere Felder ausweiten lassen. Das Training des Modells erfolgt dabei zunächst offline, indem Beispiele als Referenzen zugeführt werden. Daraus erstellt sich das System eigene Regeln und kategorisiert Videos entsprechend.

In der Onlinephase können Nutzer das System direkt zur Auswahl von Videoinhalten im Netz anwenden. IBM stellt dabei einen Regler zur Verfügung, der die Balance zwischen ethischen Werten und den Präferenzen der Nutzer - in diesem Testfall Kinder - festlegt. Das ist notwendig, da Vorlieben und einschränkende Regeln oft kollidieren.

Noch nicht ausgereift genug

Ausgegebene Empfehlungen auf Basis ethischer Regeln funktionieren bei IBMs Projekt momentan nur auf Ja/Nein-Basis. Außerdem benötigt das KI-System noch zwei menschliche Parteien: Nutzer und Regelsetzer. Viele Inhalte im Netz werden jedoch oft persönlich von einer Person ausgewählt. Diese müssten sich entsprechend ihre eigenen Regeln setzen. Das könnte beispielsweise so aussehen, dass Menschen sich selbst Zeiten am Smartphone setzen oder angeben, wie bewusst sie sich ernähren wollen.

Potenzielle Anwendungsfälle gibt es viele, allerdings ist das System bisher noch nicht so allgemein verwendbar. Es muss also vorerst auf dem altmodischen Weg gedacht werden: mit Menschenverstand.  (on)


Verwandte Artikel:
KI: IBMs Chip soll alle Aspekte von Deep Learning berechnen   
(03.07.2018, https://glm.io/135281 )
IBM Spectrum NAS: NAS-Software ist klein und leicht installierbar   
(21.02.2018, https://glm.io/132905 )
Maschinelles Lernen: Gesichtserkennung ist zuverlässig - bei weißen Männern   
(12.02.2018, https://glm.io/132709 )
IBM Think 2018: Blockchain im Mikrocomputer und Plankton analysierende KI   
(21.03.2018, https://glm.io/133444 )
Project Debater: KI von IBM gewinnt Debatte gegen einen Menschen   
(19.06.2018, https://glm.io/135025 )

© 1997–2019 Golem.de, https://www.golem.de/