Elon Musk und Deepmind-Gründer: Keine Maschine soll über menschliches Leben entscheiden

Das Future of Life Institute(öffnet im neuen Fenster) , das sich "der Förderung der Forschung zur Sicherung des Lebens und einer optimistischen Vision für die Zukunft" verschrieben hat, hat ein Gelöbnis gegen die Entwicklung, Verwendung und Verbreitung autonomer Waffen entworfen. Ein Aufruf, das Gelöbnis zu unterzeichnen, kursiert zumindest seit Anfang Juli.(öffnet im neuen Fenster) Inzwischen wurde das Gelöbnis von 164 Organisationen und 2.410 Individuen unterzeichnet, darunter eine Reihe von Firmen wie Google Deepmind, deren Gründer Demis Hassabis, Shane Legg, Mustafa Suleyman sowie Elon Musk. Sie versprechen: "Wir werden die Entwicklung, Herstellung, Handel und Benutzung tödlicher autonomer Waffen weder unterstützen noch daran teilnehmen."
Es ist nicht die erste derartige Aktion des Instituts. Bereits 2015 veröffentlichte es einen offenen Brief von Forschern in der künstlichen Intelligenz und Robotik(öffnet im neuen Fenster) mit ähnlichem Inhalt, der von 3.978 Forschern in der künstlichen Intelligenz und Robotik und 22.541 anderen Persönlichkeiten unterschrieben wurde. Das Gelöbnis und der offene Brief wurden auch in russischer und japanischer Sprache veröffentlicht, wobei der Mangel einer Version in chinesischer Sprache auffällig ist, insbesondere in Anbetracht der Bevölkerungszahl und des Engagements in der künstlichen Intelligenz in China. Die Unterzeichnung des Gelöbnisses steht jedem frei.
Das Gelöbnis in deutscher Sprache:
Künstliche Intelligenz wird in Zukunft eine größere Rolle in militärischen Systemen spielen. Es gibt die drängende Gelegenheit und Notwendigkeit, dass sich Bürger, politische Entscheidungsträger und Führungspersönlichkeiten [engl. policymakers and leaders] dafür einsetzen, zwischen der akzeptablen und inakzeptablen Verwendung künstlicher Intelligenz zu unterscheiden.
Aus diesem Grund kommen wir, die Unterzeichner, überein, dass die Entscheidung, ein menschliches Leben zu nehmen, niemals einer Maschine überlassen werden sollte. Es gibt eine moralische Komponente zu dieser Position. Wir sollten Maschinen nicht erlauben zu entscheiden, ein Leben zu nehmen, wenn dafür andere Menschen – oder niemand – verantwortlich ist. Es gibt auch ein pragmatisches Argument: Tödliche autonome Waffen, die ohne menschlichen Einfluss Ziele auswählen und attackieren, wären ein gefährlicher destabilisierender Faktor für jedes Land und jedes Individuum.
Tausende Forscher in der künstlichen Intelligenz sind sich einig, dass tödliche autonome Waffen ein mächtiges Instrument der Gewalt und Unterdrückung werden können. Denn sie könnten das Risiko, die Zuschreibbarkeit und die Schwierigkeit der Tötung anderer Menschen entfernen – insbesondere in Verbindung mit Überwachung und Datensystemen. Des Weiteren haben tödliche autonome Waffen Eigenschaften, die ganz anders als nukleare, chemische oder biologische Waffen sind. Die unilateralen Aktionen einer einzigen Gruppe könnten sehr leicht zu einem Rüstungswettlauf führen, in dem der internationalen Gemeinschaft die technischen und politischen Mittel fehlen würden, ihn zu beherrschen. Die Stigmatisierung und Verhinderung eines solchen Rüstungswettlaufs sollte eine hohe Priorität für die nationale und globale Sicherheit sein.
Wir, die Unterzeichnenden, rufen Regierungen und Regierungsführer dazu auf, sich mit starken internationalen Normen, Regeln und Gesetzen gegen tödliche autonome Waffen auf die Zukunft vorzubereiten. Da es diese derzeit nicht gibt, werden wir uns selbst an einen hohen Standard halten: Wir werden die Entwicklung, Herstellung, Handel und Benutzung tödlicher autonomer Waffen weder unterstützen noch daran teilnehmen. Wir rufen Technologiefirmen und Organisationen, genauso wie politische Entscheidungsträger, Führungspersönlichkeiten und andere Individuen dazu auf, sich diesem Gelöbnis anzuschließen.



