Elon Musk und Deepmind-Gründer: Keine Maschine soll über menschliches Leben entscheiden

Tausende Forscher, Unternehmer, Firmen und Organisationen andere haben ein Gelöbnis gegen die Entwicklung, Verwendung und Verbreitung autonomer Waffen mit künstlicher Intelligenz unterzeichnet. Darunter sind die Google-Deepmind-Gründer und Elon Musk.

Artikel veröffentlicht am ,
Derzeit können Drohnen noch nicht eigenständig Menschen töten.
Derzeit können Drohnen noch nicht eigenständig Menschen töten. (Bild: US Airforce)

Das Future of Life Institute, das sich "der Förderung der Forschung zur Sicherung des Lebens und einer optimistischen Vision für die Zukunft" verschrieben hat, hat ein Gelöbnis gegen die Entwicklung, Verwendung und Verbreitung autonomer Waffen entworfen. Ein Aufruf, das Gelöbnis zu unterzeichnen, kursiert zumindest seit Anfang Juli. Inzwischen wurde das Gelöbnis von 164 Organisationen und 2.410 Individuen unterzeichnet, darunter eine Reihe von Firmen wie Google Deepmind, deren Gründer Demis Hassabis, Shane Legg, Mustafa Suleyman sowie Elon Musk. Sie versprechen: "Wir werden die Entwicklung, Herstellung, Handel und Benutzung tödlicher autonomer Waffen weder unterstützen noch daran teilnehmen."

Stellenmarkt
  1. Software Architect (f/m/d)
    NEXPLORE Technology GmbH, Darmstadt, Essen, München
  2. Product Lead (f/m/d)
    NEXPLORE Technology GmbH, Essen, Darmstadt, München
Detailsuche

Es ist nicht die erste derartige Aktion des Instituts. Bereits 2015 veröffentlichte es einen offenen Brief von Forschern in der künstlichen Intelligenz und Robotik mit ähnlichem Inhalt, der von 3.978 Forschern in der künstlichen Intelligenz und Robotik und 22.541 anderen Persönlichkeiten unterschrieben wurde. Das Gelöbnis und der offene Brief wurden auch in russischer und japanischer Sprache veröffentlicht, wobei der Mangel einer Version in chinesischer Sprache auffällig ist, insbesondere in Anbetracht der Bevölkerungszahl und des Engagements in der künstlichen Intelligenz in China. Die Unterzeichnung des Gelöbnisses steht jedem frei.

Das Gelöbnis in deutscher Sprache:

Künstliche Intelligenz wird in Zukunft eine größere Rolle in militärischen Systemen spielen. Es gibt die drängende Gelegenheit und Notwendigkeit, dass sich Bürger, politische Entscheidungsträger und Führungspersönlichkeiten [engl. policymakers and leaders] dafür einsetzen, zwischen der akzeptablen und inakzeptablen Verwendung künstlicher Intelligenz zu unterscheiden.

Aus diesem Grund kommen wir, die Unterzeichner, überein, dass die Entscheidung, ein menschliches Leben zu nehmen, niemals einer Maschine überlassen werden sollte. Es gibt eine moralische Komponente zu dieser Position. Wir sollten Maschinen nicht erlauben zu entscheiden, ein Leben zu nehmen, wenn dafür andere Menschen - oder niemand - verantwortlich ist. Es gibt auch ein pragmatisches Argument: Tödliche autonome Waffen, die ohne menschlichen Einfluss Ziele auswählen und attackieren, wären ein gefährlicher destabilisierender Faktor für jedes Land und jedes Individuum.

Golem Karrierewelt
  1. Deep Dive: Data Architecture mit Spark und Cloud Native: virtueller Ein-Tages-Workshop
    01.02.2023, Virtuell
  2. Kubernetes – das Container Orchestration Framework: virtueller Vier-Tage-Workshop
    20.-23.02.2023, Virtuell
Weitere IT-Trainings

Tausende Forscher in der künstlichen Intelligenz sind sich einig, dass tödliche autonome Waffen ein mächtiges Instrument der Gewalt und Unterdrückung werden können. Denn sie könnten das Risiko, die Zuschreibbarkeit und die Schwierigkeit der Tötung anderer Menschen entfernen - insbesondere in Verbindung mit Überwachung und Datensystemen. Des Weiteren haben tödliche autonome Waffen Eigenschaften, die ganz anders als nukleare, chemische oder biologische Waffen sind. Die unilateralen Aktionen einer einzigen Gruppe könnten sehr leicht zu einem Rüstungswettlauf führen, in dem der internationalen Gemeinschaft die technischen und politischen Mittel fehlen würden, ihn zu beherrschen. Die Stigmatisierung und Verhinderung eines solchen Rüstungswettlaufs sollte eine hohe Priorität für die nationale und globale Sicherheit sein.

Wir, die Unterzeichnenden, rufen Regierungen und Regierungsführer dazu auf, sich mit starken internationalen Normen, Regeln und Gesetzen gegen tödliche autonome Waffen auf die Zukunft vorzubereiten. Da es diese derzeit nicht gibt, werden wir uns selbst an einen hohen Standard halten: Wir werden die Entwicklung, Herstellung, Handel und Benutzung tödlicher autonomer Waffen weder unterstützen noch daran teilnehmen. Wir rufen Technologiefirmen und Organisationen, genauso wie politische Entscheidungsträger, Führungspersönlichkeiten und andere Individuen dazu auf, sich diesem Gelöbnis anzuschließen.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


cubi 19. Jul 2018

die meisten machen mit und kastrieren sich selbst, die restlichen lachen sich ins...

as112 18. Jul 2018

"Was kümmert mich mein Geschwätz von gestern". Genau das ist dieses Gelöbnis wert.

as112 18. Jul 2018

Ab auf die Trollwiese.

plutoniumsulfat 18. Jul 2018

Schickt die Drohne ein kleines Bildchen mit ein paar Pixeln und sagt einem Menschen, er...



Aktuell auf der Startseite von Golem.de
Amazon Shopper Panel
Amazon zahlt für Überwachung des Smartphone-Datenverkehrs

Wer seinen gesamten Smartphone-Datenverkehr über Amazons Server leitet, wird mit einem monatlichen Gutschein dafür bezahlt.

Amazon Shopper Panel: Amazon zahlt für Überwachung des Smartphone-Datenverkehrs
Artikel
  1. Vodafone und Telekom: LTE-Ausbau in Berliner Bahntunneln dauert weitere Jahre
    Vodafone und Telekom
    LTE-Ausbau in Berliner Bahntunneln dauert weitere Jahre

    Laut Senatsverwaltung kam der Ausbau der Base-Transceiver-Station-Hotels nicht wie geplant voran. Nicht nur die Kunden von Vodafone und Telekom haben das Nachsehen.

  2. Northrop Grumman: B21 Raider als erster digitaler Bomber vorgestellt
    Northrop Grumman
    B21 Raider als erster digitaler Bomber vorgestellt

    Northrop Grumman hat mit dem B-21 Raider eine neuen Tarnkappenbomber vorgestellt. Dabei kamen agile Softwareentwicklung und digitales Engineering zum Einsatz.

  3. Soziale Netzwerke: Liken bei Hasspostings kann strafbar sein
    Soziale Netzwerke
    Liken bei Hasspostings kann strafbar sein

    Facebook-Nutzer, die nicht davor zurückschrecken, diskriminierende oder beleidigende oder Postings zu liken, sollten sich das gut überlegen. Denn das Drücken des Gefällt-mir-Buttons kann hier erhebliche rechtliche Folgen haben.
    Von Harald Büring

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    Daily Deals • PS5-Bundle vorbestellbar • SanDisk Extreme PRO 1TB 141,86€ • Amazon-Geräte bis -53% • Mindstar: Alphacool Eiswolf 2 AiO 360 199€, AMD-Ryzen-CPUs zu Bestpreisen • Alternate: WD_BLACK P10 2TB 76,89€ • Advent-Tagesdeals bei MediaMarkt/Saturn • Thrustmaster Ferrari GTE Wheel 87,60€ [Werbung]
    •  /