Maschinelles Lernen: IBM entwickelt KI, die ethischen Vorgaben folgt
Ist ein Video für Kinder geeignet? Ein selbstlernendes Empfehlungssystem soll das anhand von vorgegebenen ethischen Werten herausfinden. IBM-Forscher arbeiten an der KI, die aufgestellte Regeln auf große Datenmengen anwenden kann - in Zukunft vielleicht auf das Internet.

Forscher bei IBM arbeiten an einem KI-System, das nach ethischen und moralischen Vorgaben handeln können soll. Konkret geht es um Software, die Inhalte aus dem Netz nach verschiedenen Kriterien aussucht und Nutzern anbietet. Das berichtet das IT-Businessmagazin Venturebeat. Dabei sollen möglichst viele Ergebnisse bei gleichzeitigem Einhalten der Regeln angezeigt werden. Geführt wird das Forschungsteam von der IBM-Forscherin und Leiterin der KI-Ethik-Abteilung Francesca Rossi.
Eine solche Methode erfordert an sich kein maschinelles Lernen, beispielsweise wenn einem Programm feste Regeln vorgegeben sind, die Nutzer per Sprach- oder Textkommando abrufen können. "Es ist einfach eine Regelsammlung zu erstellen", sagt IBM-Mitforscher Nicholas Mattel. Das Problem ist, dass sich solche vorgegebenen Regeln nicht allgemein auf den Inhalt des gesamten Internets anwenden lassen.
Aus diesem Grund lernt das KI-System anhand von Beispielen deren Eigenschaften und stuft diese etwa als jugendschutzwürdig oder als für Kinder empfehlenswert ein. Das Forschungsteam konnte das bisher an einer Software für Videovorschläge testen. Mit dem Nach-Beispiel-lernen-Ansatz könnte sich das aber auch auf Literatur, Musik, Bilder oder andere Felder ausweiten lassen. Das Training des Modells erfolgt dabei zunächst offline, indem Beispiele als Referenzen zugeführt werden. Daraus erstellt sich das System eigene Regeln und kategorisiert Videos entsprechend.
In der Onlinephase können Nutzer das System direkt zur Auswahl von Videoinhalten im Netz anwenden. IBM stellt dabei einen Regler zur Verfügung, der die Balance zwischen ethischen Werten und den Präferenzen der Nutzer - in diesem Testfall Kinder - festlegt. Das ist notwendig, da Vorlieben und einschränkende Regeln oft kollidieren.
Noch nicht ausgereift genug
Ausgegebene Empfehlungen auf Basis ethischer Regeln funktionieren bei IBMs Projekt momentan nur auf Ja/Nein-Basis. Außerdem benötigt das KI-System noch zwei menschliche Parteien: Nutzer und Regelsetzer. Viele Inhalte im Netz werden jedoch oft persönlich von einer Person ausgewählt. Diese müssten sich entsprechend ihre eigenen Regeln setzen. Das könnte beispielsweise so aussehen, dass Menschen sich selbst Zeiten am Smartphone setzen oder angeben, wie bewusst sie sich ernähren wollen.
Potenzielle Anwendungsfälle gibt es viele, allerdings ist das System bisher noch nicht so allgemein verwendbar. Es muss also vorerst auf dem altmodischen Weg gedacht werden: mit Menschenverstand.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Aus linker Sicht(heute, nicht gestern!) ist es unmoralisch Menschen den Gruppen nach zu...
Siehe Wall-E..
Also von einer KI, welche ein Filtering nach einem Muster macht zu einer KI die nach...
Ethik hindert Roboter/KI nicht daran Menschenleben als wertlos einzustufen, einzig Asimov...