Googles KI-Regeln: Auf den Spuren Asimovs

Google erlegt sich für seine Arbeit mit künstlicher Intelligenz ein Regelwerk auf: Wie bei Asimovs Robotergesetzen soll eine KI keinen Schaden anrichten und einem Menschen gehorchen. Die Regeln enthalten aber Formulierungen, die eine umstrittene Nutzung von künstlicher Intelligenz nicht ausschließen.

Eine Analyse von veröffentlicht am
Googles Regelwerk ist ausführlicher als Asimovs Robotergesetze, aber auch weniger eindeutig.
Googles Regelwerk ist ausführlicher als Asimovs Robotergesetze, aber auch weniger eindeutig. (Bild: Keystone/Getty Images)

Google hat in einem Blogbeitrag eine Reihe von Regeln veröffentlicht, die für das Unternehmen bei der Arbeit mit künstlicher Intelligenz gelten sollen. Wie bei den Robotergesetzen des Science-Fiction-Autors Isaac Asimov soll das Regelwerk Auswege für ethische Probleme aufzeigen, die bei der Arbeit mit einer KI auftauchen können.

Stellenmarkt
  1. Senior Solution Architekt - Netzwerk (m/w/d)
    operational services GmbH & Co. KG, Frankfurt am Main, Berlin, Hamburg, München
  2. Firmware-Entwickler / Device-Integration Software Engineer (m/w/d)
    PTW FREIBURG Physikalisch-Technische Werkstätten Dr. Pychlau GmbH, Freiburg im Breisgau
Detailsuche

Google ist dabei etwas ausführlicher als Asimov, der zunächst drei, später vier Roboterregeln aufgestellt hatte. Gleichzeitig hält sich das Unternehmen auch einige Schlupflöcher offen, die zumindest stellenweise Praktiken ermöglichen, die als unethisch erachtet werden könnten. Das wird direkt im ersten Punkt ersichtlich: "Sei nützlich für die Gesellschaft."

Googles Formulierungen lassen Spielraum

Darin verpflichtet sich das Unternehmen, bei der Entwicklung von künstlichen Intelligenzen soziale und wirtschaftliche Faktoren einzubeziehen und nur fortzufahren, wenn die "möglichen Vorteile die vorhersehbaren Nachteile und Risiken überwiegen". Diese Formulierung lässt recht viel Spielraum, da die Beurteilung von Risiken natürlich stets Ansichtssache ist.

Gleichzeitig will Google mit der Entwicklung seiner KIs keine Voreingenommenheit fördern. Die Forschung soll durch Sicherheitsmechanismen geschützt sein, die unerwünschte Resultate, die zu Schäden führen können, verhindern sollen. Auch deshalb soll eine KI immer einem Menschen zur Rechenschaft verpflichtet sein, Menschen sollen die Richtung der KI vorgeben können und diese kontrollieren.

Golem Akademie
  1. Unity Basiswissen: virtueller Drei-Tage-Workshop
    7.–9. Februar 2022, Virtuell
  2. Java EE 8 Komplettkurs: virtueller Fünf-Tage-Workshop
    24.–28. Januar 2022, virtuell
Weitere IT-Trainings

Zu diesen "Dos" gibt es auch einige "Don'ts": Waffen oder andere Technologien, die Menschen verletzen sollen, will Google mit seiner KI-Forschung nicht hervorbringen. Auch soll keine künstliche Intelligenz entwickelt werden, die internationale Gesetze und Menschenrechte verletzt.

Auch Verbote bekommen Einschränkungen

Bei den Regeln, die festlegen, was Googles KIs nicht machen sollen, verwendet das Unternehmen ebenfalls einige schwammige Formulierungen. So sollen KIs Menschen zwar generell keinen Schaden zufügen, das Unternehmen will aber auch hier die Risiken gegen die Vorteile abwägen - was bei guter Argumentation viele Türen offen lässt. Auch will Google seine künstliche Intelligenz nicht zur Überwachung einsetzen - wenn keine internationalen Gesetze verletzt werden, aber schon.

In diesem Sinne will Google auch sein militärisches Engagement im Bereich der künstlichen Intelligenz nicht komplett beenden, da es den eigenen Definitionen nicht zwingenderweise widerspricht. So sollen zwar keine Waffen entwickelt werden, die KIs aber für "Cybersecurity, Training, Anwerbung, Gesundheitsvorsorge von Veteranen und Rettungsmissionen" verwendet werden.

Gerade das Thema KI und das Militär hat intern bei Google jüngst zu Diskussionen geführt. Das Unternehmen wird die intern Project Maven genannte Zusammenarbeit mit dem US-Militär im Jahr 2019 auslaufen lassen, nachdem zahlreiche Mitarbeiter deswegen gekündigt haben. Project Maven hat mit Hilfe von Maschinenlernen Spionagebilder ausgewertet, um Informationen über feindliche Stellungen und Truppenbewegungen zu gewinnen. Ob Project Maven den neuen Grundsätzen widerspricht, ist Auslegungssache.

Es ist sinnvoll und notwendig, dass sich Google mit der ethischen Komponente künstlicher Intelligenz beschäftigt und sich Regeln auferlegt. Dass die Entwicklung von KIs soziale Fragen aufwirft, hat die Vorstellung des telefonierenden Google-Assistenten auf der I/O 2018 gezeigt. Danach haben sich kritische Stimmen gemehrt, die forderten, dass sich eine KI stets als solche zu erkennen geben muss.

Googles KI-Regeln sind leider weitaus weniger eindeutig als Asimovs Roboterregeln, da sie viel mehr Schlupflöcher gewähren. Inwieweit das Unternehmen diese nutzt, wird sich zeigen.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


HarryPotter 16. Okt 2018

Wenn es um Gesetze über KI geht, dann sollte man unbedingt auch die Perspektive der KI...

VigarLunaris 19. Jun 2018

Na wie gut das die KIs von Google noch keine Drohnen kontrollieren und steuern. Sonst...

bombinho 10. Jun 2018

Ja, ist mir auch schon aufgefallen, dass wir in anderen Bereichen damit keine...

bombinho 09. Jun 2018

Es wuerde mich interessieren, wie diese Regeln von KI eingehalten werden sollen bzw...



Aktuell auf der Startseite von Golem.de
Corona-Warn-App
Jede geteilte Warnung kostete 100 Euro

Die Bundesregierung hat für die Corona-Warn-App bisher mehr als 130 Millionen Euro ausgegeben. Derzeit gibt es besonders viele rote Warnungen.

Corona-Warn-App: Jede geteilte Warnung kostete 100 Euro
Artikel
  1. Activision Blizzard: Was passiert mit Call of Duty, Diablo und Xbox Game Pass?
    Activision Blizzard
    Was passiert mit Call of Duty, Diablo und Xbox Game Pass?

    Playstation als Verlierer und Exklusivspiele für den Xbox Game Pass: Golem.de über die bislang größte Übernahme durch Microsoft.
    Eine Analyse von Peter Steinlechner

  2. Dice: Update-Roadmap für Battlefield 2042 vorgestellt
    Dice
    Update-Roadmap für Battlefield 2042 vorgestellt

    Ob das reicht? Das Entwicklerstudio Dice hat seine Pläne für Battlefield 2042 vorgestellt. Der Shooter hat extrem niedrige Spielerzahlen.

  3. Glasfaser in Freiburg: Telekom kommt wegen wirrer Auflagen nicht weiter
    Glasfaser in Freiburg
    Telekom kommt wegen wirrer Auflagen nicht weiter

    Um Bauwurzeln zu schonen, sollte die Telekom in Freiburg Glasfaser im Zickzack ausbauen. Das dortige Tiefbauamt lehnte den Plan des Gartenbauamtes aber ab.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    Daily Deals • LG OLED 55" 120Hz 999€ • MindStar (u.a. NZXT WaKü 129€, GTX 1660 499€) • Seagate Firecuda 530 1TB inkl. Kühlkörper + 20€ PSN-Guthaben 189,90€ • HP Omen Gaming-Stuhl 319€ • Sony Pulse 3D Wireless PS5 Headset 79,99€ • Huawei MateBook 16,1" 16GB 512GB SSD 709€ [Werbung]
    •  /