Zum Hauptinhalt Zur Navigation

Künstliche Intelligenz: Forscher fordern Ächtung von autonomen Waffensystemen

Maschinen erschießen Menschen? In ein paar Jahren sei das möglich, warnen Wissenschaftler, darunter führende Forscher der KI und Prominente wie Stephen Hawking und Elon Musk. Ein globales Wettrüsten müsse verhindert werden.
/ Süddeutsche.de
61 Kommentare News folgen (öffnet im neuen Fenster)
Zielsystem (Symbolbild): Risiken von KI für die Gesellschaft (Bild: Qinetiq)
Zielsystem (Symbolbild): Risiken von KI für die Gesellschaft Bild: Qinetiq

Mehr als 1.000 Wissenschaftler für Robotik und Experten für künstliche Intelligenz (KI) haben davor gewarnt, die Erkenntnisse ihrer Forschung für Waffen und in Kriegen einzusetzen. Autonome Waffen seien nach Schießpulver und Nuklearwaffen die dritte Revolution in der Kriegsführung. Die Welt stehe unmittelbar vor einem globalen Wettrüsten mit autonomen Waffensystemen, die zu den "Kalaschnikows von morgen" zu werden drohen.

Der Brief wurde vom Future of Life Institute (FLI) veröffentlicht(öffnet im neuen Fenster) . Das ist eine Einrichtung, die es sich zur Aufgabe gemacht hat, die Risiken von KI für die Gesellschaft zu untersuchen.

Wer den Brief unterzeichnet hat

Zu den Initiatoren gehören etliche Prominente wie Tesla-Gründer Elon Musk, der Astrophysiker Stephen Hawking ( beide im Beirat des Instituts(öffnet im neuen Fenster) ), der US-Intellektuelle Noam Chomsky und Apple-Mitgründer Steve Wozniak. Sie wollen den offenen Brief am 28. Juli auf der International Joint Conference on Artificial Intelligence(öffnet im neuen Fenster) (IJCAI) in Buenos Aires vorstellen. Neben der Prominenz finden sich auch Hunderte führende Forscher im Bereich der KI unter den Unterzeichnern, etwa Demis Hassabis, Chef der kürzlich von Google aufgekauften Firma Deepmind.

Kosten seien vergleichsweise gering

Die Forscher betonen, dass die Kosten für solche Systeme, anders als zum Beispiel für Nuklearwaffen, in einem überschaubaren Bereich liegen. Es sei dadurch ungleich leichter, diese Systeme gegen die Bevölkerung einzusetzen – sei es von Diktatoren oder aber Terroristen. Autonome Waffen seien "ideal" , um Attentate auszuführen.

Den Forschern zufolge gebe es viele Möglichkeiten, künstliche Intelligenz in Kriegssituationen einzusetzen – allerdings um die Menschen zu schützen und nicht, um diese zu töten.

Das sagt die Bundesregierung zu autonomen Waffen

Experten haben bereits mehrfach betont, dass es ein Wettrüsten im Bereich von autonomen Waffen(öffnet im neuen Fenster) gebe. Einrichtungen wie die Menschenrechtsorganisation Human Rights Watch forderten die Vereinten Nationen bereits dazu auf, autonome Waffensysteme zu verbieten(öffnet im neuen Fenster) .

Im Koalitionsvertrag der Bundesregierung ( hier das PDF(öffnet im neuen Fenster) ) heißt es: "Deutschland wird sich für eine völkerrechtliche Ächtung vollautomatisierter Waffensysteme einsetzen, die dem Menschen die Entscheidung über den Waffeneinsatz entziehen."


Relevante Themen