Abo
  • Services:

Googles KI-Regeln: Auf den Spuren Asimovs

Google erlegt sich für seine Arbeit mit künstlicher Intelligenz ein Regelwerk auf: Wie bei Asimovs Robotergesetzen soll eine KI keinen Schaden anrichten und einem Menschen gehorchen. Die Regeln enthalten aber Formulierungen, die eine umstrittene Nutzung von künstlicher Intelligenz nicht ausschließen.

Eine Analyse von veröffentlicht am
Googles Regelwerk ist ausführlicher als Asimovs Robotergesetze, aber auch weniger eindeutig.
Googles Regelwerk ist ausführlicher als Asimovs Robotergesetze, aber auch weniger eindeutig. (Bild: Keystone/Getty Images)

Google hat in einem Blogbeitrag eine Reihe von Regeln veröffentlicht, die für das Unternehmen bei der Arbeit mit künstlicher Intelligenz gelten sollen. Wie bei den Robotergesetzen des Science-Fiction-Autors Isaac Asimov soll das Regelwerk Auswege für ethische Probleme aufzeigen, die bei der Arbeit mit einer KI auftauchen können.

Stellenmarkt
  1. Daimler AG, Großraum Stuttgart
  2. STUTE Logistics (AG & Co.) KG, Bremen

Google ist dabei etwas ausführlicher als Asimov, der zunächst drei, später vier Roboterregeln aufgestellt hatte. Gleichzeitig hält sich das Unternehmen auch einige Schlupflöcher offen, die zumindest stellenweise Praktiken ermöglichen, die als unethisch erachtet werden könnten. Das wird direkt im ersten Punkt ersichtlich: "Sei nützlich für die Gesellschaft."

Googles Formulierungen lassen Spielraum

Darin verpflichtet sich das Unternehmen, bei der Entwicklung von künstlichen Intelligenzen soziale und wirtschaftliche Faktoren einzubeziehen und nur fortzufahren, wenn die "möglichen Vorteile die vorhersehbaren Nachteile und Risiken überwiegen". Diese Formulierung lässt recht viel Spielraum, da die Beurteilung von Risiken natürlich stets Ansichtssache ist.

Gleichzeitig will Google mit der Entwicklung seiner KIs keine Voreingenommenheit fördern. Die Forschung soll durch Sicherheitsmechanismen geschützt sein, die unerwünschte Resultate, die zu Schäden führen können, verhindern sollen. Auch deshalb soll eine KI immer einem Menschen zur Rechenschaft verpflichtet sein, Menschen sollen die Richtung der KI vorgeben können und diese kontrollieren.

Zu diesen "Dos" gibt es auch einige "Don'ts": Waffen oder andere Technologien, die Menschen verletzen sollen, will Google mit seiner KI-Forschung nicht hervorbringen. Auch soll keine künstliche Intelligenz entwickelt werden, die internationale Gesetze und Menschenrechte verletzt.

Auch Verbote bekommen Einschränkungen

Bei den Regeln, die festlegen, was Googles KIs nicht machen sollen, verwendet das Unternehmen ebenfalls einige schwammige Formulierungen. So sollen KIs Menschen zwar generell keinen Schaden zufügen, das Unternehmen will aber auch hier die Risiken gegen die Vorteile abwägen - was bei guter Argumentation viele Türen offen lässt. Auch will Google seine künstliche Intelligenz nicht zur Überwachung einsetzen - wenn keine internationalen Gesetze verletzt werden, aber schon.

In diesem Sinne will Google auch sein militärisches Engagement im Bereich der künstlichen Intelligenz nicht komplett beenden, da es den eigenen Definitionen nicht zwingenderweise widerspricht. So sollen zwar keine Waffen entwickelt werden, die KIs aber für "Cybersecurity, Training, Anwerbung, Gesundheitsvorsorge von Veteranen und Rettungsmissionen" verwendet werden.

Gerade das Thema KI und das Militär hat intern bei Google jüngst zu Diskussionen geführt. Das Unternehmen wird die intern Project Maven genannte Zusammenarbeit mit dem US-Militär im Jahr 2019 auslaufen lassen, nachdem zahlreiche Mitarbeiter deswegen gekündigt haben. Project Maven hat mit Hilfe von Maschinenlernen Spionagebilder ausgewertet, um Informationen über feindliche Stellungen und Truppenbewegungen zu gewinnen. Ob Project Maven den neuen Grundsätzen widerspricht, ist Auslegungssache.

Es ist sinnvoll und notwendig, dass sich Google mit der ethischen Komponente künstlicher Intelligenz beschäftigt und sich Regeln auferlegt. Dass die Entwicklung von KIs soziale Fragen aufwirft, hat die Vorstellung des telefonierenden Google-Assistenten auf der I/O 2018 gezeigt. Danach haben sich kritische Stimmen gemehrt, die forderten, dass sich eine KI stets als solche zu erkennen geben muss.

Googles KI-Regeln sind leider weitaus weniger eindeutig als Asimovs Roboterregeln, da sie viel mehr Schlupflöcher gewähren. Inwieweit das Unternehmen diese nutzt, wird sich zeigen.



Anzeige
Spiele-Angebote
  1. 59,99€ mit Vorbesteller-Preisgarantie
  2. 5,99€
  3. (u. a. Diablo 3 Ultimate Evil Edition, Gear Club Unlimited, HP-Notebooks)

bombinho 10. Jun 2018 / Themenstart

Ja, ist mir auch schon aufgefallen, dass wir in anderen Bereichen damit keine...

bombinho 09. Jun 2018 / Themenstart

Es wuerde mich interessieren, wie diese Regeln von KI eingehalten werden sollen bzw...

Kommentieren


Folgen Sie uns
       


Asus ROG Phone - Hands On auf der Computex 2018

Das ROG ist ein interessantes Konzept, das sich schon beim an Gamer gerichteten Design von anderen Telefonen unterscheidet. Außergewöhnlich sind die vielen Zubehörteile: darunter ein Handheld-Adapter, ein Desktop-Dock, ein Anstecklüfter und ein Controllermodul. Wir haben es uns angeschaut.

Asus ROG Phone - Hands On auf der Computex 2018 Video aufrufen
Volocopter 2X: Das Flugtaxi, das noch nicht abheben darf
Volocopter 2X
Das Flugtaxi, das noch nicht abheben darf

Cebit 2018 Der Volocopter ist fertig - bleibt in Hannover aber noch am Boden. Im zweisitzigen Fluggerät stecken jede Menge Ideen, die autonomes Fliegen als Ergänzung zu anderen Nahverkehrsmitteln möglich machen soll. Golem.de hat Platz genommen und mit den Entwicklern gesprochen.
Von Nico Ernst

  1. Urban Air Mobility Airbus gründet neuen Geschäftsbereich für Lufttaxis
  2. Cityairbus Mit Siemens soll das Lufttaxi abheben
  3. Verkehr Porsche entwickelt Lufttaxi

Live-Linux: Knoppix 8.3 mit Docker
Live-Linux
Knoppix 8.3 mit Docker

Cebit 2018 Die Live-Distribution Knoppix Linux-Magazin Edition bringt nicht nur die üblichen Aktualisierungen und einen gegen Meltdown und Spectre geschützten Kernel. Mir ist das kleine Kunststück gelungen, Knoppix als Docker-Container zu starten.
Ein Bericht von Klaus Knopper


    Kreuzschifffahrt: Wie Brennstoffzellen Schiffe sauberer machen
    Kreuzschifffahrt
    Wie Brennstoffzellen Schiffe sauberer machen

    Die Schifffahrtsbranche ist nicht gerade umweltfreundlich: Auf hoher See werden die Maschinen der großen Schiffe mit Schweröl befeuert, im Hafen verschmutzen Dieselabgase die Luft. Das sollen Brennstoffzellen ändern - wenigstens in der Kreuzschifffahrt.
    Von Werner Pluta

    1. Roboat MIT-Forscher drucken autonom fahrende Boote
    2. Elektromobilität Norwegen baut mehr Elektrofähren
    3. Elektromobilität Norwegische Elektrofähre ist sauber und günstig

      •  /