Original-URL des Artikels: https://www.golem.de/news/googles-ki-regeln-auf-den-spuren-asimovs-1806-134848.html    Veröffentlicht: 08.06.2018 13:13    Kurz-URL: https://glm.io/134848

Googles KI-Regeln

Auf den Spuren Asimovs

Google erlegt sich für seine Arbeit mit künstlicher Intelligenz ein Regelwerk auf: Wie bei Asimovs Robotergesetzen soll eine KI keinen Schaden anrichten und einem Menschen gehorchen. Die Regeln enthalten aber Formulierungen, die eine umstrittene Nutzung von künstlicher Intelligenz nicht ausschließen.

Google hat in einem Blogbeitrag eine Reihe von Regeln veröffentlicht, die für das Unternehmen bei der Arbeit mit künstlicher Intelligenz gelten sollen. Wie bei den Robotergesetzen des Science-Fiction-Autors Isaac Asimov soll das Regelwerk Auswege für ethische Probleme aufzeigen, die bei der Arbeit mit einer KI auftauchen können.

Google ist dabei etwas ausführlicher als Asimov, der zunächst drei, später vier Roboterregeln aufgestellt hatte. Gleichzeitig hält sich das Unternehmen auch einige Schlupflöcher offen, die zumindest stellenweise Praktiken ermöglichen, die als unethisch erachtet werden könnten. Das wird direkt im ersten Punkt ersichtlich: "Sei nützlich für die Gesellschaft."

Googles Formulierungen lassen Spielraum

Darin verpflichtet sich das Unternehmen, bei der Entwicklung von künstlichen Intelligenzen soziale und wirtschaftliche Faktoren einzubeziehen und nur fortzufahren, wenn die "möglichen Vorteile die vorhersehbaren Nachteile und Risiken überwiegen". Diese Formulierung lässt recht viel Spielraum, da die Beurteilung von Risiken natürlich stets Ansichtssache ist.

Gleichzeitig will Google mit der Entwicklung seiner KIs keine Voreingenommenheit fördern. Die Forschung soll durch Sicherheitsmechanismen geschützt sein, die unerwünschte Resultate, die zu Schäden führen können, verhindern sollen. Auch deshalb soll eine KI immer einem Menschen zur Rechenschaft verpflichtet sein, Menschen sollen die Richtung der KI vorgeben können und diese kontrollieren.

Zu diesen "Dos" gibt es auch einige "Don'ts": Waffen oder andere Technologien, die Menschen verletzen sollen, will Google mit seiner KI-Forschung nicht hervorbringen. Auch soll keine künstliche Intelligenz entwickelt werden, die internationale Gesetze und Menschenrechte verletzt.

Auch Verbote bekommen Einschränkungen

Bei den Regeln, die festlegen, was Googles KIs nicht machen sollen, verwendet das Unternehmen ebenfalls einige schwammige Formulierungen. So sollen KIs Menschen zwar generell keinen Schaden zufügen, das Unternehmen will aber auch hier die Risiken gegen die Vorteile abwägen - was bei guter Argumentation viele Türen offen lässt. Auch will Google seine künstliche Intelligenz nicht zur Überwachung einsetzen - wenn keine internationalen Gesetze verletzt werden, aber schon.

In diesem Sinne will Google auch sein militärisches Engagement im Bereich der künstlichen Intelligenz nicht komplett beenden, da es den eigenen Definitionen nicht zwingenderweise widerspricht. So sollen zwar keine Waffen entwickelt werden, die KIs aber für "Cybersecurity, Training, Anwerbung, Gesundheitsvorsorge von Veteranen und Rettungsmissionen" verwendet werden.

Gerade das Thema KI und das Militär hat intern bei Google jüngst zu Diskussionen geführt. Das Unternehmen wird die intern Project Maven genannte Zusammenarbeit mit dem US-Militär im Jahr 2019 auslaufen lassen, nachdem zahlreiche Mitarbeiter deswegen gekündigt haben. Project Maven hat mit Hilfe von Maschinenlernen Spionagebilder ausgewertet, um Informationen über feindliche Stellungen und Truppenbewegungen zu gewinnen. Ob Project Maven den neuen Grundsätzen widerspricht, ist Auslegungssache.

Es ist sinnvoll und notwendig, dass sich Google mit der ethischen Komponente künstlicher Intelligenz beschäftigt und sich Regeln auferlegt. Dass die Entwicklung von KIs soziale Fragen aufwirft, hat die Vorstellung des telefonierenden Google-Assistenten auf der I/O 2018 gezeigt. Danach haben sich kritische Stimmen gemehrt, die forderten, dass sich eine KI stets als solche zu erkennen geben muss.

Googles KI-Regeln sind leider weitaus weniger eindeutig als Asimovs Roboterregeln, da sie viel mehr Schlupflöcher gewähren. Inwieweit das Unternehmen diese nutzt, wird sich zeigen.  (tk)


Verwandte Artikel:
Android: Google Lens erreicht Deutschland   
(24.05.2018, https://glm.io/134555 )
Intelligentes Lernen: Google lässt Militärprojekt nach Protesten auslaufen   
(02.06.2018, https://glm.io/134733 )
Vor Abstimmung: 100 EU-Abgeordnete lehnen Leistungsschutzrecht ab   
(07.06.2018, https://glm.io/134836 )
Honor 10 vs. Oneplus 6: Oberklasse ab 400 Euro   
(06.06.2018, https://glm.io/134773 )
Asus Project Precog: Convertible nutzt zwei Displays als Tastatur oder Anzeige   
(05.06.2018, https://glm.io/134770 )

© 1997–2019 Golem.de, https://www.golem.de/