Original-URL des Artikels: https://www.golem.de/news/oliver-bendel-es-gibt-gute-argumente-fuer-und-gegen-kampfroboter-1805-134192.html    Veröffentlicht: 04.05.2018 12:10    Kurz-URL: https://glm.io/134192

Oliver Bendel

"Es gibt gute Argumente für und gegen Kampfroboter"

Terminatoren, die Jagd auf Menschen machen, sind bisher noch Stoff für dystopische Filmszenarien. In den Laboren diverser Länder arbeiten Forscher allerdings längst an Waffensystemen, die autonom über Leben und Tod entscheiden. Doch es gibt Gegner, die solche Roboter verbieten wollen. Wir haben mit einem gesprochen.

Roboter im Krieg sind ein heikles Thema. Einige Nationen machen keinen Hehl daraus, dass sie auf dem Schlachtfeld der Zukunft Systeme einsetzen wollen, die autonom agieren und ohne eine Kontrolle durch einen Menschen töten. Einige Wissenschaftler argumentieren, dass diese Systeme keine Kriegsverbrechen begehen.

Es gibt aber auch viele Gegner, die seit Jahren ein Verbot von autonomen Waffensystemen fordern. Dazu gehören unter anderem Tesla- und SpaceX-Chef Elon Musk oder der kürzlich verstorbene britische Wissenschaftler Stephen Hawking.

Seit einigen Jahren beraten die Vereinten Nationen über ein solches Verbot. Anfang April fand in Genf eine Gesprächsrunde dazu statt. Wir haben Oliver Bendel dazu befragt. Bendel hat Philosophie und Germanistik sowie Informationswissenschaft studiert und in der Wirtschaftsinformatik promoviert. Er ist Professor für Wirtschaftsinformatik an der Fachhochschule Nordwestschweiz.

Zu seinen Spezialgebieten gehört die Maschinenethik. Er hat einige moralische und unmoralische Maschinen entworfen, darunter den tierlieben Saugroboter Ladybird, der Marienkäfer verschont, und den Liebot, einen Chatbot, der gern mal die Unwahrheit sagt.

Golem.de: Worum ging es bei den Gesprächen in Genf konkret?

Oliver Bendel: Es geht dort um autonome Kampfroboter. Man unterscheidet ja zwischen ferngesteuerten, teilautonomen und autonomen Kampfsystemen. Bei den Vereinten Nationen in Genf werden sowohl rechtliche und ethische als auch sicherheitspolitische Fragen diskutiert. Und zwar schon seit einer Weile. Das war also eines von mehreren Treffen.

Golem.de: Welche Positionen gibt es zu bewaffneten autonomen Systemen?

Bendel: Da stehen sich zwei große Lager gegenüber. Da sind diejenigen, die an autonomen Kampfsystemen forschen. Die haben kein großes Interesse, dass solche Systeme verboten werden. Dazu gehören unter anderem die USA und China. In die Arbeit der USA habe ich etwas Einblick. Ein bekannter Wissenschaftler in dem Bereich, den ich mehrfach getroffen habe, ist Ron Arkin, der für das Pentagon arbeitet.

Auf der anderen Seite gibt es viele Staaten, die gern ein Verbot von autonomen Waffensystemen sehen würden. Bestimmte Staaten versuchen zu vermitteln. Dazu gehört natürlich die Schweiz, aber auch Deutschland oder Frankreich sind dabei.

Interessant an der ganzen Diskussion ist, dass es aus ethischer, rechtlicher und gesellschaftlicher Perspektive gute Argumente auf beiden Seiten gibt.

Die Hemmschwelle sinkt

Golem.de: Was spricht für solche Systeme?

Bendel: Dass sie sehr präzise agieren. Man kann mit der Zeit autonome Waffensysteme mit KI heranzüchten, die Ziele mehr oder weniger eindeutig identifizieren und dann recht präzise eliminieren. Dabei kann der Kollateralschaden gering gehalten werden.

Daran forscht Arkin: Er will Kampfsysteme oder Kampfroboter mit künstlichem Gewissen schaffen, um Kollateralschaden zu vermeiden. Das Pentagon hat vor einiger Zeit Geld für Maschinenethik in diesem militärischen Kontext bereitgestellt. Das hat mich überrascht. Es kommt nicht oft vor, dass eine Einrichtung für das Forschungsgebiet Maschinenethik relativ viel Geld zur Verfügung stellt.

Ein anderes Argument ist die ökonomische Kriegsführung. Das heißt, man kann nach bestimmten Investitionen günstig Krieg führen. Eigene Soldaten werden geschont, was nicht nur, aber auch ökonomische Vorteile hat. Man schickt also nicht die eigenen Söhne und Töchter und auch nicht seine Angestellten und Arbeiter in den Krieg.

Arkin und andere erwähnen auch immer wieder das Argument, Maschinen würden nicht plündern, brandschatzen, vergewaltigen. Das ist auf den ersten Blick ein nettes Argument. Aber das müsste man hinterfragen.

Golem.de: Was spricht gegen autonome Kampfmaschinen?

Bendel: Möglicherweise verletzt das Delegieren der Tötungsentscheidung an Maschinen grundlegende Menschenrechte, zum Beispiel die Menschenwürde. Die ist allerdings im Krieg auf irgendeine Weise immer verletzt.

Die Schwelle für die Entscheidung, eine militärische Auseinandersetzung zu führen, könnte herabgesetzt werden. Wenn ich die Möglichkeit habe, auf Knopfdruck zum Beispiel Drohnenschwärme loszuschicken, dann ist die Schwelle relativ niedrig.

Zur Aussage, dass Roboter nicht plündern, brandschatzen und vergewaltigen, habe ich ein Gegenargument: Maschinen haben zwar kein eigenes Interesse daran. Aber man programmiert ihnen bestimmte Ziele ein, und natürlich könnte man ihnen auch das einprogrammieren. Das wäre besonders perfide und brutal.

Und schließlich: Ich bin vor zwei Jahren im Silicon Valley dem Überwachungsroboter K5 begegnet. Wenn man vor ihm steht, versucht man, nicht verdächtig zu wirken. Das möchte ich gern übertragen: Wenn autonome Kampfroboter über Landstriche ziehen, fragen sich Zehntausende Menschen: Was dürfen wir jetzt nicht tun? Was hat die Maschine jetzt gelernt? Was hat sie vor? Ich kann mir vorstellen, dass das großer Psychoterror ist. Der Mensch muss sich an die Logik der Maschinen anpassen.

Golem.de: Was ist Ihre Position?

Bendel: Ich bin für ein Verbot, ähnlich wie bei Chemiewaffen. Mir erscheinen die Argumente dagegen sehr gewichtig, vor allem, dass die Hemmschwelle für Kriege herabgesetzt wird. Das heißt, wer die finanziellen Möglichkeiten hat, kann dann über Länder herfallen, mittels Knopfdruck.

Außerdem sollte man bestimmte Entscheidungen nicht an Maschinen delegieren. Wenn Menschen andere Menschen auslöschen wollen, ist das eine große Verantwortung, eine große Bürde. Das zu delegieren, halte ich für sehr problematisch.

Ich habe mit meinen Studenten in den letzten Jahren oft über autonome Autos diskutiert und habe sie gefragt, ob sie diesen in der Zukunft eine Entscheidung über Leben und Tod von Menschen überlassen wollten. Ich hatte eine ausgewogenes Ergebnis erwartet. Aber es war relativ eindeutig: Sie sagten, sie wollten das. Das hat mich beunruhigt.

Golem.de: Es gibt heute schon Waffen, die selbstständig ihre Ziele suchen. Was ist damit?

Bendel: Da gibt es in der Tat einiges: Es gibt Lenkwaffen. Es gibt an der Grenze zwischen Nordkorea und Südkorea Systeme, die automatisch Ziele identifizieren und automatisch feuern. Es gibt auch Minen, die Personen unterscheiden können. Es gibt mehr, als man denkt, und bereits diese Waffen könnten unter ein Verbot fallen.

Roboter sollen retten

Golem.de: Nicht alle robotischen Systeme, mit denen sich das Militär beschäftigt, sind für den Kampf gedacht. Was gibt es noch?

Bendel: Da gibt es ein breites Spektrum. Es wird viel an autonomen Systemen für den Transport geforscht. Sie dienen dem Abtransport von Verwundeten, der Versorgung von Soldaten, logistischen Zwecken. Was Arkin noch erforscht, sind Systeme, die betrügen und in die Irre führen können. Das sind ja auch keine Kombatsysteme, die töten.

Golem.de: Wo würden Sie die Grenzen ziehen? Würden Sie autonome Systeme komplett vom Schlachtfeld verbannen?

Bendel: Dass man seine Verletzten versorgen und retten oder verdächtige Gegenstände sprengen will, - dafür werden Roboter ja auch oft eingesetzt -, halte ich für unproblematisch. Ein Roboter, der einen Verletzten aus dem Feuer zieht, ist wunderbar. Ich beschäftige mich viel mit Operations-, Pflege- und Therapierobotern. Operationsroboter als Teleroboter wurden unter anderem mit Blick auf den militärischen Einsatz entwickelt. Die Idee war, dass der Arzt sicher Soldaten im Feld operieren kann. Das ist nichts Schlechtes. Warum soll der Arzt in die Luft gejagt werden, wenn er Soldaten zusammenflickt?

Wogegen ich mich ausspreche, sind autonome Waffensysteme, die darauf abzielen, Menschen zu eliminieren: Drohnenschwärme, Atlas, der weiter aufgerüstet wird und Menschen tötet, autonome Panzer, die in Scharen durch die Gegend rollen. Da sehe ich die Grenze.

Ich würde eine Ausnahme machen: Wir haben nur über den Kriegsfall gesprochen. Vielleicht sollte man unterscheiden zwischen Krieg und Terrorabwehr. Ganz konkret: Tötet man Osama bin Laden manuell oder durch autonome Waffensysteme? Da wäre ich zumindest nicht mehr so sicher in meiner Ablehnung.

Golem.de: Wie realistisch ist es, dass ein Verbot dieser Waffensysteme tatsächlich kommt?

Bendel: Meine Ablehnung ist vorhanden. Am Ende wird sie nichts nutzen. Wie in Syrien Giftgas eingesetzt wird, so werden geächtete und verbotene Waffen eingesetzt werden, auch wenn wir sie verbieten. Trotzdem: Was bleibt denn am Ende? Mir fallen außer einem Verbot nicht viele Möglichkeiten ein.  (wp)


Verwandte Artikel:
Kampfroboter: Forscher drohen südkoreanischem Institut mit Boykott   
(05.04.2018, https://glm.io/133694 )
Xiaoice und Zo: Microsoft erforscht menschlicher wirkende Sprachchat-KIs   
(05.04.2018, https://glm.io/133683 )
KI: Musk und andere fordern Verbot von autonomen Kampfrobotern   
(21.08.2017, https://glm.io/129603 )
Agility Robotics: Lieferroboter Cassie kann laufen und Treppen steigen   
(03.05.2018, https://glm.io/134209 )
Bayou: KI erstellt selbstständig Java-Programmteile   
(27.04.2018, https://glm.io/134107 )

© 1997–2019 Golem.de, https://www.golem.de/