Abo
  • Services:
Anzeige
Zielsystem (Symbolbild): Risiken von KI für die Gesellschaft
Zielsystem (Symbolbild): Risiken von KI für die Gesellschaft (Bild: Qinetiq)

Künstliche Intelligenz: Forscher fordern Ächtung von autonomen Waffensystemen

Zielsystem (Symbolbild): Risiken von KI für die Gesellschaft
Zielsystem (Symbolbild): Risiken von KI für die Gesellschaft (Bild: Qinetiq)

Maschinen erschießen Menschen? In ein paar Jahren sei das möglich, warnen Wissenschaftler, darunter führende Forscher der KI und Prominente wie Stephen Hawking und Elon Musk. Ein globales Wettrüsten müsse verhindert werden.

Anzeige

Mehr als 1.000 Wissenschaftler für Robotik und Experten für künstliche Intelligenz (KI) haben davor gewarnt, die Erkenntnisse ihrer Forschung für Waffen und in Kriegen einzusetzen. Autonome Waffen seien nach Schießpulver und Nuklearwaffen die dritte Revolution in der Kriegsführung. Die Welt stehe unmittelbar vor einem globalen Wettrüsten mit autonomen Waffensystemen, die zu den "Kalaschnikows von morgen" zu werden drohen.

Der Brief wurde vom Future of Life Institute (FLI) veröffentlicht. Das ist eine Einrichtung, die es sich zur Aufgabe gemacht hat, die Risiken von KI für die Gesellschaft zu untersuchen.

Wer den Brief unterzeichnet hat

Zu den Initiatoren gehören etliche Prominente wie Tesla-Gründer Elon Musk, der Astrophysiker Stephen Hawking (beide im Beirat des Instituts), der US-Intellektuelle Noam Chomsky und Apple-Mitgründer Steve Wozniak. Sie wollen den offenen Brief am 28. Juli auf der International Joint Conference on Artificial Intelligence (IJCAI) in Buenos Aires vorstellen. Neben der Prominenz finden sich auch Hunderte führende Forscher im Bereich der KI unter den Unterzeichnern, etwa Demis Hassabis, Chef der kürzlich von Google aufgekauften Firma Deepmind.

Kosten seien vergleichsweise gering

Die Forscher betonen, dass die Kosten für solche Systeme, anders als zum Beispiel für Nuklearwaffen, in einem überschaubaren Bereich liegen. Es sei dadurch ungleich leichter, diese Systeme gegen die Bevölkerung einzusetzen - sei es von Diktatoren oder aber Terroristen. Autonome Waffen seien "ideal", um Attentate auszuführen.

Den Forschern zufolge gebe es viele Möglichkeiten, künstliche Intelligenz in Kriegssituationen einzusetzen - allerdings um die Menschen zu schützen und nicht, um diese zu töten.

Das sagt die Bundesregierung zu autonomen Waffen

Experten haben bereits mehrfach betont, dass es ein Wettrüsten im Bereich von autonomen Waffen gebe. Einrichtungen wie die Menschenrechtsorganisation Human Rights Watch forderten die Vereinten Nationen bereits dazu auf, autonome Waffensysteme zu verbieten.

Im Koalitionsvertrag der Bundesregierung (hier das PDF) heißt es: "Deutschland wird sich für eine völkerrechtliche Ächtung vollautomatisierter Waffensysteme einsetzen, die dem Menschen die Entscheidung über den Waffeneinsatz entziehen."


eye home zur Startseite
Dwalinn 29. Jul 2015

Jetzt weiß ich aber auch nicht wer den Abzug gedrückt hat und die höheren Ebnen sind...

johnsonmonsen 28. Jul 2015

Hallo ChMu, So ist es. Ebenso ist jeder elektrische Zaun, jedes Minenfeld und jede...

AndreasGr 28. Jul 2015

Wäre interessant zu wissen, ob es Auswertungen gibt über die Schiessanlagen an der...

Oldy 28. Jul 2015

Natürlich, so etwas hat wie alles zwei Seiten der Medaille.

Dwalinn 28. Jul 2015

Ich empfinde es als unethisch schwächere nicht zu schützen. Wer hat nun recht? Ein...



Anzeige

Stellenmarkt
  1. über JobLeads GmbH, Düsseldorf
  2. Robert Bosch GmbH, Stuttgart-Feuerbach
  3. Landesbetrieb IT.Niedersachsen, Hannover
  4. BG-Phoenics GmbH, München


Anzeige
Top-Angebote
  1. (u. a. John Wick, Bastille Day, Sicario, Leon der Profi)
  2. 556,03€
  3. (u. a. Technikprodukte & Gadgets von Start-ups reduziert, Sport & Outdoor-Produkte günstiger)

Folgen Sie uns
       


  1. Samsung

    Chip-Sparte bringt Gewinnanstieg

  2. Mario Kart 8 Deluxe im Test

    Ehrenrunde mit Ballon-Knaller, HD Rumble und Super-Turbo

  3. Google Global Cache

    Googles Server für Kuba sind online

  4. Snap Spectacles im Test

    Das Brillen-Spektakel für Snapchat-Fans

  5. Hybridkonsole

    Nintendo verkauft im ersten Monat 2,74 Millionen Switch

  6. Windows 10

    Fehler unterbricht Verteilung des Creators Update teilweise

  7. Noonee

    Exoskelett ermöglicht Sitzen ohne Stuhl

  8. Atom C2000 & Kaby Lake

    Updates beheben Defekt respektive fehlendes HDCP 2.2

  9. Netzausrüster

    Nokia macht weiter hohen Verlust

  10. Alien Covenant In Utero

    Neomorph im VR-Brustkasten



Haben wir etwas übersehen?

E-Mail an news@golem.de


Anzeige
Spielebranche: "Ungefähr jetzt ist der Prinzessin-Leia-Moment"
Spielebranche
"Ungefähr jetzt ist der Prinzessin-Leia-Moment"
  1. Spielentwickler Männlich, 34 Jahre alt und unterbezahlt
  2. Let's Player Auf Youtube verkauft auch die Trashnight Spiele
  3. In eigener Sache Doom auf dem Tech Summit

DLR-Projekt Eden ISS: Das Paradies ist ein Container
DLR-Projekt Eden ISS
Das Paradies ist ein Container
  1. Weltraumschrott "Der neue Aspekt sind die Megakonstellationen"
  2. Transport Der Güterzug der Zukunft ist ein schneller Roboter
  3. "Die Astronautin" Ich habe heute leider keinen Flug ins All für dich

Radeon RX 580 und RX 570 im Test: AMDs Grafikkarten sind schneller und sparsamer
Radeon RX 580 und RX 570 im Test
AMDs Grafikkarten sind schneller und sparsamer
  1. Grafikkarte Manche Radeon RX 400 lassen sich zu Radeon RX 500 flashen
  2. Radeon Pro Duo AMD bringt Profi-Grafikkarte mit zwei Polaris-Chips
  3. Grafikkarten AMD bringt vier neue alte Radeons für Komplett-PCs

  1. Re: Und wann befindet sich in einem YouTube-Video...

    TW1920 | 15:06

  2. Re: Ich sehe das anders

    John2k | 15:04

  3. Re: Stadtautos verbieten

    Teebecher | 15:04

  4. Re: Also wird der Uploaded.net Premium weiter...

    Neuro-Chef | 15:03

  5. Re: Und was ist mit Enlighten von Geomerics?

    Poison Nuke | 15:03


  1. 14:55

  2. 14:00

  3. 12:42

  4. 12:04

  5. 12:02

  6. 11:54

  7. 11:49

  8. 11:35


  1. Themen
  2. A
  3. B
  4. C
  5. D
  6. E
  7. F
  8. G
  9. H
  10. I
  11. J
  12. K
  13. L
  14. M
  15. N
  16. O
  17. P
  18. Q
  19. R
  20. S
  21. T
  22. U
  23. V
  24. W
  25. X
  26. Y
  27. Z
  28. #
 
    •  / 
    Zum Artikel