• IT-Karriere:
  • Services:

Googles KI-Regeln: Auf den Spuren Asimovs

Google erlegt sich für seine Arbeit mit künstlicher Intelligenz ein Regelwerk auf: Wie bei Asimovs Robotergesetzen soll eine KI keinen Schaden anrichten und einem Menschen gehorchen. Die Regeln enthalten aber Formulierungen, die eine umstrittene Nutzung von künstlicher Intelligenz nicht ausschließen.

Eine Analyse von veröffentlicht am
Googles Regelwerk ist ausführlicher als Asimovs Robotergesetze, aber auch weniger eindeutig.
Googles Regelwerk ist ausführlicher als Asimovs Robotergesetze, aber auch weniger eindeutig. (Bild: Keystone/Getty Images)

Google hat in einem Blogbeitrag eine Reihe von Regeln veröffentlicht, die für das Unternehmen bei der Arbeit mit künstlicher Intelligenz gelten sollen. Wie bei den Robotergesetzen des Science-Fiction-Autors Isaac Asimov soll das Regelwerk Auswege für ethische Probleme aufzeigen, die bei der Arbeit mit einer KI auftauchen können.

Stellenmarkt
  1. abacon Gesellschaft für Mess-, Steuer- und Regeltechnik mbH, Eschborn-Niederhöchstadt
  2. TGW Robotics GmbH, Stephanskirchen

Google ist dabei etwas ausführlicher als Asimov, der zunächst drei, später vier Roboterregeln aufgestellt hatte. Gleichzeitig hält sich das Unternehmen auch einige Schlupflöcher offen, die zumindest stellenweise Praktiken ermöglichen, die als unethisch erachtet werden könnten. Das wird direkt im ersten Punkt ersichtlich: "Sei nützlich für die Gesellschaft."

Googles Formulierungen lassen Spielraum

Darin verpflichtet sich das Unternehmen, bei der Entwicklung von künstlichen Intelligenzen soziale und wirtschaftliche Faktoren einzubeziehen und nur fortzufahren, wenn die "möglichen Vorteile die vorhersehbaren Nachteile und Risiken überwiegen". Diese Formulierung lässt recht viel Spielraum, da die Beurteilung von Risiken natürlich stets Ansichtssache ist.

Gleichzeitig will Google mit der Entwicklung seiner KIs keine Voreingenommenheit fördern. Die Forschung soll durch Sicherheitsmechanismen geschützt sein, die unerwünschte Resultate, die zu Schäden führen können, verhindern sollen. Auch deshalb soll eine KI immer einem Menschen zur Rechenschaft verpflichtet sein, Menschen sollen die Richtung der KI vorgeben können und diese kontrollieren.

Zu diesen "Dos" gibt es auch einige "Don'ts": Waffen oder andere Technologien, die Menschen verletzen sollen, will Google mit seiner KI-Forschung nicht hervorbringen. Auch soll keine künstliche Intelligenz entwickelt werden, die internationale Gesetze und Menschenrechte verletzt.

Auch Verbote bekommen Einschränkungen

Bei den Regeln, die festlegen, was Googles KIs nicht machen sollen, verwendet das Unternehmen ebenfalls einige schwammige Formulierungen. So sollen KIs Menschen zwar generell keinen Schaden zufügen, das Unternehmen will aber auch hier die Risiken gegen die Vorteile abwägen - was bei guter Argumentation viele Türen offen lässt. Auch will Google seine künstliche Intelligenz nicht zur Überwachung einsetzen - wenn keine internationalen Gesetze verletzt werden, aber schon.

In diesem Sinne will Google auch sein militärisches Engagement im Bereich der künstlichen Intelligenz nicht komplett beenden, da es den eigenen Definitionen nicht zwingenderweise widerspricht. So sollen zwar keine Waffen entwickelt werden, die KIs aber für "Cybersecurity, Training, Anwerbung, Gesundheitsvorsorge von Veteranen und Rettungsmissionen" verwendet werden.

Gerade das Thema KI und das Militär hat intern bei Google jüngst zu Diskussionen geführt. Das Unternehmen wird die intern Project Maven genannte Zusammenarbeit mit dem US-Militär im Jahr 2019 auslaufen lassen, nachdem zahlreiche Mitarbeiter deswegen gekündigt haben. Project Maven hat mit Hilfe von Maschinenlernen Spionagebilder ausgewertet, um Informationen über feindliche Stellungen und Truppenbewegungen zu gewinnen. Ob Project Maven den neuen Grundsätzen widerspricht, ist Auslegungssache.

Es ist sinnvoll und notwendig, dass sich Google mit der ethischen Komponente künstlicher Intelligenz beschäftigt und sich Regeln auferlegt. Dass die Entwicklung von KIs soziale Fragen aufwirft, hat die Vorstellung des telefonierenden Google-Assistenten auf der I/O 2018 gezeigt. Danach haben sich kritische Stimmen gemehrt, die forderten, dass sich eine KI stets als solche zu erkennen geben muss.

Googles KI-Regeln sind leider weitaus weniger eindeutig als Asimovs Roboterregeln, da sie viel mehr Schlupflöcher gewähren. Inwieweit das Unternehmen diese nutzt, wird sich zeigen.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


Anzeige
Top-Angebote
  1. (u. a. Ghostrunner für 11,99€, Planet Zoo - Deluxe Edition für 18,99€)
  2. mit 81,90€ neuer Bestpreis auf Geizhals
  3. (u. a. G403 Hero Gaming-Maus für 44€, G703 Hero für 66€, G513 mechanische Gaming-Tastatur...

HarryPotter 16. Okt 2018

Wenn es um Gesetze über KI geht, dann sollte man unbedingt auch die Perspektive der KI...

VigarLunaris 19. Jun 2018

Na wie gut das die KIs von Google noch keine Drohnen kontrollieren und steuern. Sonst...

bombinho 10. Jun 2018

Ja, ist mir auch schon aufgefallen, dass wir in anderen Bereichen damit keine...

bombinho 09. Jun 2018

Es wuerde mich interessieren, wie diese Regeln von KI eingehalten werden sollen bzw...


Folgen Sie uns
       


Fotos kolorieren mit einem Klick per KI - Tutorial

Wir zeigen, wie sich ein altes Bild schnell kolorieren lässt - ganz ohne Photoshop.

Fotos kolorieren mit einem Klick per KI - Tutorial Video aufrufen
Programm für IT-Jobeinstieg: Hoffen auf den Klebeeffekt
Programm für IT-Jobeinstieg
Hoffen auf den Klebeeffekt

Aktuell ist der Jobeinstieg für junge Ingenieure und Informatiker schwer. Um ihnen zu helfen, hat das Land Baden-Württemberg eine interessante Idee: Es macht sich selbst zur Zeitarbeitsfirma.
Ein Bericht von Peter Ilg

  1. Arbeitszeit Das Sechs-Stunden-Experiment bei Sipgate
  2. Neuorientierung im IT-Job Endlich mal machen!
  3. IT-Unternehmen Die richtige Software für ein Projekt finden

Weclapp-CTO Ertan Özdil: Wir dürfen nicht in Schönheit und Perfektion untergehen!
Weclapp-CTO Ertan Özdil
"Wir dürfen nicht in Schönheit und Perfektion untergehen!"

Der CTO von Weclapp träumt von smarter Software, die menschliches Eingreifen in der nächsten ERP-Generation reduziert. Deutschen Perfektionismus hält Ertan Özdil aber für gefährlich.
Ein Interview von Maja Hoock


    Fiat 500 als E-Auto im Test: Kleinstwagen mit großem Potenzial
    Fiat 500 als E-Auto im Test
    Kleinstwagen mit großem Potenzial

    Fiat hat einen neuen 500er entwickelt. Der Kleine fährt elektrisch - und zwar richtig gut.
    Ein Test von Peter Ilg

    1. Vierradlenkung Elektrischer GMC Hummer SUV fährt im Krabbengang seitwärts
    2. MG Cyberster MG B Roadster mit Lasergürtel und Union Jack
    3. Elektroauto E-Auto-Prämie übersteigt in 2021 schon Vorjahressumme

      •  /