Abo
  • Services:

Elon Musk und Deepmind-Gründer: Keine Maschine soll über menschliches Leben entscheiden

Tausende Forscher, Unternehmer, Firmen und Organisationen andere haben ein Gelöbnis gegen die Entwicklung, Verwendung und Verbreitung autonomer Waffen mit künstlicher Intelligenz unterzeichnet. Darunter sind die Google-Deepmind-Gründer und Elon Musk.

Artikel veröffentlicht am ,
Derzeit können Drohnen noch nicht eigenständig Menschen töten.
Derzeit können Drohnen noch nicht eigenständig Menschen töten. (Bild: US Airforce)

Das Future of Life Institute, das sich "der Förderung der Forschung zur Sicherung des Lebens und einer optimistischen Vision für die Zukunft" verschrieben hat, hat ein Gelöbnis gegen die Entwicklung, Verwendung und Verbreitung autonomer Waffen entworfen. Ein Aufruf, das Gelöbnis zu unterzeichnen, kursiert zumindest seit Anfang Juli. Inzwischen wurde das Gelöbnis von 164 Organisationen und 2.410 Individuen unterzeichnet, darunter eine Reihe von Firmen wie Google Deepmind, deren Gründer Demis Hassabis, Shane Legg, Mustafa Suleyman sowie Elon Musk. Sie versprechen: "Wir werden die Entwicklung, Herstellung, Handel und Benutzung tödlicher autonomer Waffen weder unterstützen noch daran teilnehmen."

Stellenmarkt
  1. Robert Bosch GmbH, Stuttgart
  2. CSL Behring GmbH, Marburg, Hattersheim am Main

Es ist nicht die erste derartige Aktion des Instituts. Bereits 2015 veröffentlichte es einen offenen Brief von Forschern in der künstlichen Intelligenz und Robotik mit ähnlichem Inhalt, der von 3.978 Forschern in der künstlichen Intelligenz und Robotik und 22.541 anderen Persönlichkeiten unterschrieben wurde. Das Gelöbnis und der offene Brief wurden auch in russischer und japanischer Sprache veröffentlicht, wobei der Mangel einer Version in chinesischer Sprache auffällig ist, insbesondere in Anbetracht der Bevölkerungszahl und des Engagements in der künstlichen Intelligenz in China. Die Unterzeichnung des Gelöbnisses steht jedem frei.

Das Gelöbnis in deutscher Sprache:

Künstliche Intelligenz wird in Zukunft eine größere Rolle in militärischen Systemen spielen. Es gibt die drängende Gelegenheit und Notwendigkeit, dass sich Bürger, politische Entscheidungsträger und Führungspersönlichkeiten [engl. policymakers and leaders] dafür einsetzen, zwischen der akzeptablen und inakzeptablen Verwendung künstlicher Intelligenz zu unterscheiden.

Aus diesem Grund kommen wir, die Unterzeichner, überein, dass die Entscheidung, ein menschliches Leben zu nehmen, niemals einer Maschine überlassen werden sollte. Es gibt eine moralische Komponente zu dieser Position. Wir sollten Maschinen nicht erlauben zu entscheiden, ein Leben zu nehmen, wenn dafür andere Menschen - oder niemand - verantwortlich ist. Es gibt auch ein pragmatisches Argument: Tödliche autonome Waffen, die ohne menschlichen Einfluss Ziele auswählen und attackieren, wären ein gefährlicher destabilisierender Faktor für jedes Land und jedes Individuum.

Tausende Forscher in der künstlichen Intelligenz sind sich einig, dass tödliche autonome Waffen ein mächtiges Instrument der Gewalt und Unterdrückung werden können. Denn sie könnten das Risiko, die Zuschreibbarkeit und die Schwierigkeit der Tötung anderer Menschen entfernen - insbesondere in Verbindung mit Überwachung und Datensystemen. Des Weiteren haben tödliche autonome Waffen Eigenschaften, die ganz anders als nukleare, chemische oder biologische Waffen sind. Die unilateralen Aktionen einer einzigen Gruppe könnten sehr leicht zu einem Rüstungswettlauf führen, in dem der internationalen Gemeinschaft die technischen und politischen Mittel fehlen würden, ihn zu beherrschen. Die Stigmatisierung und Verhinderung eines solchen Rüstungswettlaufs sollte eine hohe Priorität für die nationale und globale Sicherheit sein.

Wir, die Unterzeichnenden, rufen Regierungen und Regierungsführer dazu auf, sich mit starken internationalen Normen, Regeln und Gesetzen gegen tödliche autonome Waffen auf die Zukunft vorzubereiten. Da es diese derzeit nicht gibt, werden wir uns selbst an einen hohen Standard halten: Wir werden die Entwicklung, Herstellung, Handel und Benutzung tödlicher autonomer Waffen weder unterstützen noch daran teilnehmen. Wir rufen Technologiefirmen und Organisationen, genauso wie politische Entscheidungsträger, Führungspersönlichkeiten und andere Individuen dazu auf, sich diesem Gelöbnis anzuschließen.



Anzeige
Hardware-Angebote
  1. täglich neue Deals bei Alternate.de

cubi 19. Jul 2018

die meisten machen mit und kastrieren sich selbst, die restlichen lachen sich ins...

as112 18. Jul 2018

"Was kümmert mich mein Geschwätz von gestern". Genau das ist dieses Gelöbnis wert.

as112 18. Jul 2018

Ab auf die Trollwiese.

plutoniumsulfat 18. Jul 2018

Schickt die Drohne ein kleines Bildchen mit ein paar Pixeln und sagt einem Menschen, er...

schulz_me 18. Jul 2018

Kann das (Hör-)Buch nur empfehlen... ;)


Folgen Sie uns
       


HP Omen X Emporium 65 Gaming-Fernseher - Hands on

Wir haben uns den übergroßen 144-Hz-Gaming-TV von HP auf der CES 2019 näher angesehen.

HP Omen X Emporium 65 Gaming-Fernseher - Hands on Video aufrufen
Softwareentwicklung: Agiles Arbeiten - ein Fallbeispiel
Softwareentwicklung
Agiles Arbeiten - ein Fallbeispiel

Kennen Sie Iterationen? Es klingt wie Irritationen - und genau die löst das Wort bei vielen Menschen aus, die über agiles Arbeiten lesen. Golem.de erklärt die Fachsprache und zeigt Agilität an einem konkreten Praxisbeispiel für eine agile Softwareentwicklung.
Von Marvin Engel

  1. Job-Porträt Cyber-Detektiv "Ich musste als Ermittler über 1.000 Onanie-Videos schauen"
  2. Bundesagentur für Arbeit Ausbildungsplätze in der Informatik sind knapp
  3. IT-Jobs "Jedes Unternehmen kann es besser machen"

Zweite Staffel Star Trek Discovery: Weniger Wumms, mehr Story
Zweite Staffel Star Trek Discovery
Weniger Wumms, mehr Story

Charakterentwicklung, weniger Lens Flares, dazu eine spannende neue Storyline: Nach dem etwas mauen Ende der ersten Staffel von Star Trek: Discovery macht der Beginn der zweiten Lust auf mehr. Achtung Spoiler!
Eine Rezension von Tobias Költzsch

  1. Discovery-Spin-off Neue Star-Trek-Serie mit Michelle Yeoh geplant
  2. Star Trek Ende 2019 geht es mit Jean-Luc Picard in die Zukunft
  3. Star Trek Captain Kirk beharrt auf seinem Gehalt

Schwer ausnutzbar: Die ungefixten Sicherheitslücken
Schwer ausnutzbar
Die ungefixten Sicherheitslücken

Sicherheitslücken wie Spectre, Rowhammer und Heist lassen sich kaum vollständig beheben, ohne gravierende Performance-Einbußen zu akzeptieren. Daher bleiben sie ungefixt. Trotzdem werden sie bisher kaum ausgenutzt.
Von Hanno Böck

  1. Sicherheitslücken Bauarbeitern die Maschinen weghacken
  2. Kilswitch und Apass US-Soldaten nutzten Apps mit fatalen Sicherheitslücken
  3. Sicherheitslücke Kundendaten von IPC-Computer kopiert

    •  /