• IT-Karriere:
  • Services:

Elon Musk und Deepmind-Gründer: Keine Maschine soll über menschliches Leben entscheiden

Tausende Forscher, Unternehmer, Firmen und Organisationen andere haben ein Gelöbnis gegen die Entwicklung, Verwendung und Verbreitung autonomer Waffen mit künstlicher Intelligenz unterzeichnet. Darunter sind die Google-Deepmind-Gründer und Elon Musk.

Artikel veröffentlicht am ,
Derzeit können Drohnen noch nicht eigenständig Menschen töten.
Derzeit können Drohnen noch nicht eigenständig Menschen töten. (Bild: US Airforce)

Das Future of Life Institute, das sich "der Förderung der Forschung zur Sicherung des Lebens und einer optimistischen Vision für die Zukunft" verschrieben hat, hat ein Gelöbnis gegen die Entwicklung, Verwendung und Verbreitung autonomer Waffen entworfen. Ein Aufruf, das Gelöbnis zu unterzeichnen, kursiert zumindest seit Anfang Juli. Inzwischen wurde das Gelöbnis von 164 Organisationen und 2.410 Individuen unterzeichnet, darunter eine Reihe von Firmen wie Google Deepmind, deren Gründer Demis Hassabis, Shane Legg, Mustafa Suleyman sowie Elon Musk. Sie versprechen: "Wir werden die Entwicklung, Herstellung, Handel und Benutzung tödlicher autonomer Waffen weder unterstützen noch daran teilnehmen."

Stellenmarkt
  1. Vodafone GmbH, Düsseldorf
  2. Deutsche Gesellschaft für Internationale Zusammenarbeit (GIZ) GmbH, Eschborn

Es ist nicht die erste derartige Aktion des Instituts. Bereits 2015 veröffentlichte es einen offenen Brief von Forschern in der künstlichen Intelligenz und Robotik mit ähnlichem Inhalt, der von 3.978 Forschern in der künstlichen Intelligenz und Robotik und 22.541 anderen Persönlichkeiten unterschrieben wurde. Das Gelöbnis und der offene Brief wurden auch in russischer und japanischer Sprache veröffentlicht, wobei der Mangel einer Version in chinesischer Sprache auffällig ist, insbesondere in Anbetracht der Bevölkerungszahl und des Engagements in der künstlichen Intelligenz in China. Die Unterzeichnung des Gelöbnisses steht jedem frei.

Das Gelöbnis in deutscher Sprache:

Künstliche Intelligenz wird in Zukunft eine größere Rolle in militärischen Systemen spielen. Es gibt die drängende Gelegenheit und Notwendigkeit, dass sich Bürger, politische Entscheidungsträger und Führungspersönlichkeiten [engl. policymakers and leaders] dafür einsetzen, zwischen der akzeptablen und inakzeptablen Verwendung künstlicher Intelligenz zu unterscheiden.

Aus diesem Grund kommen wir, die Unterzeichner, überein, dass die Entscheidung, ein menschliches Leben zu nehmen, niemals einer Maschine überlassen werden sollte. Es gibt eine moralische Komponente zu dieser Position. Wir sollten Maschinen nicht erlauben zu entscheiden, ein Leben zu nehmen, wenn dafür andere Menschen - oder niemand - verantwortlich ist. Es gibt auch ein pragmatisches Argument: Tödliche autonome Waffen, die ohne menschlichen Einfluss Ziele auswählen und attackieren, wären ein gefährlicher destabilisierender Faktor für jedes Land und jedes Individuum.

Tausende Forscher in der künstlichen Intelligenz sind sich einig, dass tödliche autonome Waffen ein mächtiges Instrument der Gewalt und Unterdrückung werden können. Denn sie könnten das Risiko, die Zuschreibbarkeit und die Schwierigkeit der Tötung anderer Menschen entfernen - insbesondere in Verbindung mit Überwachung und Datensystemen. Des Weiteren haben tödliche autonome Waffen Eigenschaften, die ganz anders als nukleare, chemische oder biologische Waffen sind. Die unilateralen Aktionen einer einzigen Gruppe könnten sehr leicht zu einem Rüstungswettlauf führen, in dem der internationalen Gemeinschaft die technischen und politischen Mittel fehlen würden, ihn zu beherrschen. Die Stigmatisierung und Verhinderung eines solchen Rüstungswettlaufs sollte eine hohe Priorität für die nationale und globale Sicherheit sein.

Wir, die Unterzeichnenden, rufen Regierungen und Regierungsführer dazu auf, sich mit starken internationalen Normen, Regeln und Gesetzen gegen tödliche autonome Waffen auf die Zukunft vorzubereiten. Da es diese derzeit nicht gibt, werden wir uns selbst an einen hohen Standard halten: Wir werden die Entwicklung, Herstellung, Handel und Benutzung tödlicher autonomer Waffen weder unterstützen noch daran teilnehmen. Wir rufen Technologiefirmen und Organisationen, genauso wie politische Entscheidungsträger, Führungspersönlichkeiten und andere Individuen dazu auf, sich diesem Gelöbnis anzuschließen.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


Anzeige
Spiele-Angebote
  1. 7,99€
  2. (-27%) 14,50€
  3. (-10%) 26,99€

cubi 19. Jul 2018

die meisten machen mit und kastrieren sich selbst, die restlichen lachen sich ins...

as112 18. Jul 2018

"Was kümmert mich mein Geschwätz von gestern". Genau das ist dieses Gelöbnis wert.

as112 18. Jul 2018

Ab auf die Trollwiese.

plutoniumsulfat 18. Jul 2018

Schickt die Drohne ein kleines Bildchen mit ein paar Pixeln und sagt einem Menschen, er...

schulz_me 18. Jul 2018

Kann das (Hör-)Buch nur empfehlen... ;)


Folgen Sie uns
       


Assassin's Creed Valhalla angespielt

Im Video zeigt Golem.de selbst aufgenommenes Gameplay aus Assassin's Creed Valhalla. In dem Actionspiel treten die Spieler als Wikinger in England an.

Assassin's Creed Valhalla angespielt Video aufrufen
    •  /