Abo
  • Services:

Googles KI-Regeln: Auf den Spuren Asimovs

Google erlegt sich für seine Arbeit mit künstlicher Intelligenz ein Regelwerk auf: Wie bei Asimovs Robotergesetzen soll eine KI keinen Schaden anrichten und einem Menschen gehorchen. Die Regeln enthalten aber Formulierungen, die eine umstrittene Nutzung von künstlicher Intelligenz nicht ausschließen.

Eine Analyse von veröffentlicht am
Googles Regelwerk ist ausführlicher als Asimovs Robotergesetze, aber auch weniger eindeutig.
Googles Regelwerk ist ausführlicher als Asimovs Robotergesetze, aber auch weniger eindeutig. (Bild: Keystone/Getty Images)

Google hat in einem Blogbeitrag eine Reihe von Regeln veröffentlicht, die für das Unternehmen bei der Arbeit mit künstlicher Intelligenz gelten sollen. Wie bei den Robotergesetzen des Science-Fiction-Autors Isaac Asimov soll das Regelwerk Auswege für ethische Probleme aufzeigen, die bei der Arbeit mit einer KI auftauchen können.

Stellenmarkt
  1. MBDA Deutschland, Schrobenhausen
  2. Regiocom GmbH, Magdeburg

Google ist dabei etwas ausführlicher als Asimov, der zunächst drei, später vier Roboterregeln aufgestellt hatte. Gleichzeitig hält sich das Unternehmen auch einige Schlupflöcher offen, die zumindest stellenweise Praktiken ermöglichen, die als unethisch erachtet werden könnten. Das wird direkt im ersten Punkt ersichtlich: "Sei nützlich für die Gesellschaft."

Googles Formulierungen lassen Spielraum

Darin verpflichtet sich das Unternehmen, bei der Entwicklung von künstlichen Intelligenzen soziale und wirtschaftliche Faktoren einzubeziehen und nur fortzufahren, wenn die "möglichen Vorteile die vorhersehbaren Nachteile und Risiken überwiegen". Diese Formulierung lässt recht viel Spielraum, da die Beurteilung von Risiken natürlich stets Ansichtssache ist.

Gleichzeitig will Google mit der Entwicklung seiner KIs keine Voreingenommenheit fördern. Die Forschung soll durch Sicherheitsmechanismen geschützt sein, die unerwünschte Resultate, die zu Schäden führen können, verhindern sollen. Auch deshalb soll eine KI immer einem Menschen zur Rechenschaft verpflichtet sein, Menschen sollen die Richtung der KI vorgeben können und diese kontrollieren.

Zu diesen "Dos" gibt es auch einige "Don'ts": Waffen oder andere Technologien, die Menschen verletzen sollen, will Google mit seiner KI-Forschung nicht hervorbringen. Auch soll keine künstliche Intelligenz entwickelt werden, die internationale Gesetze und Menschenrechte verletzt.

Auch Verbote bekommen Einschränkungen

Bei den Regeln, die festlegen, was Googles KIs nicht machen sollen, verwendet das Unternehmen ebenfalls einige schwammige Formulierungen. So sollen KIs Menschen zwar generell keinen Schaden zufügen, das Unternehmen will aber auch hier die Risiken gegen die Vorteile abwägen - was bei guter Argumentation viele Türen offen lässt. Auch will Google seine künstliche Intelligenz nicht zur Überwachung einsetzen - wenn keine internationalen Gesetze verletzt werden, aber schon.

In diesem Sinne will Google auch sein militärisches Engagement im Bereich der künstlichen Intelligenz nicht komplett beenden, da es den eigenen Definitionen nicht zwingenderweise widerspricht. So sollen zwar keine Waffen entwickelt werden, die KIs aber für "Cybersecurity, Training, Anwerbung, Gesundheitsvorsorge von Veteranen und Rettungsmissionen" verwendet werden.

Gerade das Thema KI und das Militär hat intern bei Google jüngst zu Diskussionen geführt. Das Unternehmen wird die intern Project Maven genannte Zusammenarbeit mit dem US-Militär im Jahr 2019 auslaufen lassen, nachdem zahlreiche Mitarbeiter deswegen gekündigt haben. Project Maven hat mit Hilfe von Maschinenlernen Spionagebilder ausgewertet, um Informationen über feindliche Stellungen und Truppenbewegungen zu gewinnen. Ob Project Maven den neuen Grundsätzen widerspricht, ist Auslegungssache.

Es ist sinnvoll und notwendig, dass sich Google mit der ethischen Komponente künstlicher Intelligenz beschäftigt und sich Regeln auferlegt. Dass die Entwicklung von KIs soziale Fragen aufwirft, hat die Vorstellung des telefonierenden Google-Assistenten auf der I/O 2018 gezeigt. Danach haben sich kritische Stimmen gemehrt, die forderten, dass sich eine KI stets als solche zu erkennen geben muss.

Googles KI-Regeln sind leider weitaus weniger eindeutig als Asimovs Roboterregeln, da sie viel mehr Schlupflöcher gewähren. Inwieweit das Unternehmen diese nutzt, wird sich zeigen.



Anzeige
Hardware-Angebote
  1. und 25€ Steam-Gutschein erhalten
  2. ab 349€
  3. beim Kauf ausgewählter Z370-Boards mit Intel Optane Speicher + Intel SSD
  4. (reduzierte Überstände, Restposten & Co.)

bombinho 10. Jun 2018 / Themenstart

Ja, ist mir auch schon aufgefallen, dass wir in anderen Bereichen damit keine...

bombinho 09. Jun 2018 / Themenstart

Es wuerde mich interessieren, wie diese Regeln von KI eingehalten werden sollen bzw...

Kommentieren


Folgen Sie uns
       


Square Enix E3 2018 Pressekonferenz - Live

Lara Croft steht kurz vor ihrer Metamorphose, Dragon Quest 11 und Final Fantasy 14 erblühen in Europa und zwei ganz neue Spieleserien hat Square Enix auch noch vorgestellt. Wie fanden wir das?

Square Enix E3 2018 Pressekonferenz - Live Video aufrufen
Volocopter 2X: Das Flugtaxi, das noch nicht abheben darf
Volocopter 2X
Das Flugtaxi, das noch nicht abheben darf

Cebit 2018 Der Volocopter ist fertig - bleibt in Hannover aber noch am Boden. Im zweisitzigen Fluggerät stecken jede Menge Ideen, die autonomes Fliegen als Ergänzung zu anderen Nahverkehrsmitteln möglich machen soll. Golem.de hat Platz genommen und mit den Entwicklern gesprochen.
Von Nico Ernst

  1. Urban Air Mobility Airbus gründet neuen Geschäftsbereich für Lufttaxis
  2. Cityairbus Mit Siemens soll das Lufttaxi abheben
  3. Verkehr Porsche entwickelt Lufttaxi

CD Projekt Red: So spielt sich Cyberpunk 2077
CD Projekt Red
So spielt sich Cyberpunk 2077

E3 2018 Hacker statt Hexer, Ich-Sicht statt Dritte-Person-Perspektive und Auto statt Pferd: Die Witcher-Entwickler haben ihr neues Großprojekt Cyberpunk 2077 im Detail vorgestellt.
Von Peter Steinlechner


    In eigener Sache: Freie Schreiber/-innen für Jobthemen gesucht
    In eigener Sache
    Freie Schreiber/-innen für Jobthemen gesucht

    IT-Profis sind auf dem Arbeitsmarkt enorm gefragt, und die Branche hat viele Eigenheiten. Du kennst dich damit aus und willst unseren Lesern darüber berichten? Dann schreib für unser Karriere-Ressort!

    1. Leserumfrage Wie sollen wir Golem.de erweitern?
    2. Stellenanzeige Golem.de sucht Redakteur/-in für IT-Sicherheit
    3. Leserumfrage Wie gefällt Ihnen Golem.de?

      •  /