Abo
  • Services:
Anzeige
Zielsystem (Symbolbild): Risiken von KI für die Gesellschaft
Zielsystem (Symbolbild): Risiken von KI für die Gesellschaft (Bild: Qinetiq)

Künstliche Intelligenz: Forscher fordern Ächtung von autonomen Waffensystemen

Zielsystem (Symbolbild): Risiken von KI für die Gesellschaft
Zielsystem (Symbolbild): Risiken von KI für die Gesellschaft (Bild: Qinetiq)

Maschinen erschießen Menschen? In ein paar Jahren sei das möglich, warnen Wissenschaftler, darunter führende Forscher der KI und Prominente wie Stephen Hawking und Elon Musk. Ein globales Wettrüsten müsse verhindert werden.

Anzeige

Mehr als 1.000 Wissenschaftler für Robotik und Experten für künstliche Intelligenz (KI) haben davor gewarnt, die Erkenntnisse ihrer Forschung für Waffen und in Kriegen einzusetzen. Autonome Waffen seien nach Schießpulver und Nuklearwaffen die dritte Revolution in der Kriegsführung. Die Welt stehe unmittelbar vor einem globalen Wettrüsten mit autonomen Waffensystemen, die zu den "Kalaschnikows von morgen" zu werden drohen.

Der Brief wurde vom Future of Life Institute (FLI) veröffentlicht. Das ist eine Einrichtung, die es sich zur Aufgabe gemacht hat, die Risiken von KI für die Gesellschaft zu untersuchen.

Wer den Brief unterzeichnet hat

Zu den Initiatoren gehören etliche Prominente wie Tesla-Gründer Elon Musk, der Astrophysiker Stephen Hawking (beide im Beirat des Instituts), der US-Intellektuelle Noam Chomsky und Apple-Mitgründer Steve Wozniak. Sie wollen den offenen Brief am 28. Juli auf der International Joint Conference on Artificial Intelligence (IJCAI) in Buenos Aires vorstellen. Neben der Prominenz finden sich auch Hunderte führende Forscher im Bereich der KI unter den Unterzeichnern, etwa Demis Hassabis, Chef der kürzlich von Google aufgekauften Firma Deepmind.

Kosten seien vergleichsweise gering

Die Forscher betonen, dass die Kosten für solche Systeme, anders als zum Beispiel für Nuklearwaffen, in einem überschaubaren Bereich liegen. Es sei dadurch ungleich leichter, diese Systeme gegen die Bevölkerung einzusetzen - sei es von Diktatoren oder aber Terroristen. Autonome Waffen seien "ideal", um Attentate auszuführen.

Den Forschern zufolge gebe es viele Möglichkeiten, künstliche Intelligenz in Kriegssituationen einzusetzen - allerdings um die Menschen zu schützen und nicht, um diese zu töten.

Das sagt die Bundesregierung zu autonomen Waffen

Experten haben bereits mehrfach betont, dass es ein Wettrüsten im Bereich von autonomen Waffen gebe. Einrichtungen wie die Menschenrechtsorganisation Human Rights Watch forderten die Vereinten Nationen bereits dazu auf, autonome Waffensysteme zu verbieten.

Im Koalitionsvertrag der Bundesregierung (hier das PDF) heißt es: "Deutschland wird sich für eine völkerrechtliche Ächtung vollautomatisierter Waffensysteme einsetzen, die dem Menschen die Entscheidung über den Waffeneinsatz entziehen."


eye home zur Startseite
Dwalinn 29. Jul 2015

Jetzt weiß ich aber auch nicht wer den Abzug gedrückt hat und die höheren Ebnen sind...

johnsonmonsen 28. Jul 2015

Hallo ChMu, So ist es. Ebenso ist jeder elektrische Zaun, jedes Minenfeld und jede...

AndreasGr 28. Jul 2015

Wäre interessant zu wissen, ob es Auswertungen gibt über die Schiessanlagen an der...

Oldy 28. Jul 2015

Natürlich, so etwas hat wie alles zwei Seiten der Medaille.

Dwalinn 28. Jul 2015

Ich empfinde es als unethisch schwächere nicht zu schützen. Wer hat nun recht? Ein...



Anzeige

Stellenmarkt
  1. SICK AG, Reute bei Freiburg im Breisgau
  2. MEMMERT GmbH + Co. KG, Schwabach (Metropolregion Nürnberg)
  3. Schwarz IT Infrastructure & Operations Services GmbH & Co. KG, Neckarsulm
  4. ROHDE & SCHWARZ GmbH & Co. KG, München


Anzeige
Hardware-Angebote
  1. (reduzierte Überstände, Restposten & Co.)
  2. (Core i5-7600K + Asus GTX 1060 Dual OC)
  3. 543,73€

Folgen Sie uns
       


  1. Heiko Maas

    "Kein Wunder, dass Facebook seine Vorgaben geheim hält"

  2. Virtual Reality

    Oculus Rift unterstützt offiziell Roomscale-VR

  3. FTP-Client

    Filezilla bekommt ein Master Password

  4. Künstliche Intelligenz

    Apple arbeitet offenbar an eigenem AI-Prozessor

  5. Die Woche im Video

    Verbogen, abgehoben und tiefergelegt

  6. ZTE

    Chinas großes 5G-Testprojekt läuft weiter

  7. Ubisoft

    Far Cry 5 bietet Kampf gegen Sekte in und über Montana

  8. Rockstar Games

    Waffenschiebereien in GTA 5

  9. Browser-Games

    Unreal Engine 4.16 unterstützt Wasm und WebGL 2.0

  10. Hasskommentare

    Bundesrat fordert zahlreiche Änderungen an Maas-Gesetz



Haben wir etwas übersehen?

E-Mail an news@golem.de


Anzeige
Blackberry Keyone im Test: Tolles Tastatur-Smartphone hat zu kurze Akkulaufzeit
Blackberry Keyone im Test
Tolles Tastatur-Smartphone hat zu kurze Akkulaufzeit
  1. Blackberry Keyone kommt Mitte Mai
  2. Keyone Blackberrys neues Tastatur-Smartphone kommt später

The Surge im Test: Frust und Feiern in der Zukunft
The Surge im Test
Frust und Feiern in der Zukunft
  1. Computerspiele und Psyche Wie Computerspieler zu Süchtigen erklärt werden sollen
  2. Wirtschaftssimulation Pizza Connection 3 wird gebacken
  3. Mobile-Games-Auslese Untote Rundfahrt und mobiles Seemannsgarn

Vernetzte Hörgeräte und Hearables: Ich filter mir die Welt widdewiddewie sie mir gefällt
Vernetzte Hörgeräte und Hearables
Ich filter mir die Welt widdewiddewie sie mir gefällt
  1. Polar Fitnesstracker A370 mit Tiefschlaf- und Pulsmessung
  2. The Dash Pro Bragis Drahtlos-Ohrstöpsel können jetzt auch übersetzen
  3. Beddit Apple kauft Schlaf-Tracker-Hersteller

  1. Re: Anbindung an Passwortmanager

    Stormking | 23:04

  2. Re: Mal ne dumme Gegenfrage:

    Apollo13 | 22:54

  3. Re: Diese ganzen Online DLCs nerven langsam!

    TC | 22:45

  4. Re: Siri und diktieren

    rabatz | 22:37

  5. Re: Machen wir doch mal die Probe aufs Exempel

    Phantom | 22:31


  1. 12:54

  2. 12:41

  3. 11:44

  4. 11:10

  5. 09:01

  6. 17:40

  7. 16:40

  8. 16:29


  1. Themen
  2. A
  3. B
  4. C
  5. D
  6. E
  7. F
  8. G
  9. H
  10. I
  11. J
  12. K
  13. L
  14. M
  15. N
  16. O
  17. P
  18. Q
  19. R
  20. S
  21. T
  22. U
  23. V
  24. W
  25. X
  26. Y
  27. Z
  28. #
 
    •  / 
    Zum Artikel