Zum Hauptinhalt Zur Navigation

IMHO: Roboter plündern nicht

IMHO
Roboter sollen helfen, aber nicht töten: Führende Wissenschaftler, darunter Stephen Hawking, haben kürzlich ein Verbot bewaffneter Roboter gefordert. Aber ist das realistisch und sinnvoll?
/ Werner Pluta
199 Kommentare News folgen (öffnet im neuen Fenster)
Zielsystem (Symbolbild): Maschinen sollen im Nebel des Krieges besser unterscheiden als Menschen. (Bild: Qinetiq)
Zielsystem (Symbolbild): Maschinen sollen im Nebel des Krieges besser unterscheiden als Menschen. Bild: Qinetiq

Maschinen gegen Menschen, bewaffnete Roboter, die auf Menschen schießen – das gibt einen guten Stoff für Science-Fiction-Filme ab. Aber in der Realität darf das nicht vorkommen. Zumindest forderte das kürzlich das Future of Life Institute (FLI) in einem offenen Brief.

"Autonome Waffen wählen Ziele aus und stellen sie ein, ohne eine menschliche Intervention" , schreiben die Forscher(öffnet im neuen Fenster) . Künstliche Intelligenz (KI) könne viel Nutzen für die Menschheit bringen. Aber bitte nicht beim Militär: "Einen KI-Rüstungswettlauf anzufangen, ist eine schlechte Idee." Zu den Unterzeichnern gehören namhafte Robotiker und KI-Forscher sowie Prominente aus Wissenschaft und Technik, darunter Stephen Hawking, Elon Musk und Steve Wozniak.

So einleuchtend die Forderung klingt, einiges spricht auch gegen sie. Nicht nur dürfte sie nur schwer wirksam umzusetzen sein, Roboter könnten durchaus auch ethisch gesehen dem Menschen im Kampfgetümmel etwas voraushaben. Was fehlt, sind Regeln.

Wer putzende Roboter mag, muss kämpfende in Kauf nehmen

Dass ein Verbot für diese Technik nicht realistisch ist, liegt daran, dass gerade KI-Forschung und Robotik in den Bereich Dual Use(öffnet im neuen Fenster) gehören. Sie können also für friedliche Zwecke ebenso eingesetzt werden wie für militärische. Das US-Robotikunternehmen iRobot etwa baut Roboter, die den Fußboden saubermachen . Die halten wir auch für sehr nützlich .

Das Unternehmen baut aber auch Roboter für das Militär: Sie entschärfen Sprengfallen und retten damit Leben – und nicht nur das von Soldaten: Die gleichen Roboter wurden auch für die Erkundung des zerstörten Atomkraftwerks in Fukushima eingesetzt.

Es dürfte schwierig sein, beides auseinanderzuhalten: die zivile und die militärische Nutzung. Und die Forschung daran ganz zu verbieten, ist nicht praktikabel. Schließlich wollen wir ja Roboter, die uns die Hausarbeit abnehmen, die in der Pflege helfen, uns Pakete nach Hause liefern. Wenn also daran geforscht wird, wird keine Deklaration, keine Resolution und kein Vertrag jemanden davon abbringen, bewaffnete Roboter zu bauen. Und wenn es keine regulären Armeen sind, dann sind es vielleicht Terroristen. Einen Copter zu bewaffnen , ist ja nicht schwierig.

Waffensysteme werden autonom

Abgesehen davon gibt es heute schon Waffensysteme mit einem gewissen Grad an Autonomie: Bestimmte Raketen dirigieren sich selbst in das Ziel(öffnet im neuen Fenster) , das ein Mensch ihnen vorgegeben hat. Es gibt Systeme, die dem Menschen potenzielle Ziele vorschlagen. Der Mensch muss diese nur noch bestätigen. Das vom US-Rüstungskonzern Raytheon entwickelte System Phalanx(öffnet im neuen Fenster) schießt automatisch ankommende Raketen ab.

Ein Verbot bewaffneter Maschinen erscheint also nicht realistisch. Was aber muss passieren, wenn sich bewaffnete Roboter nicht verhindern lassen?

Roboter haben keine Angst

Es muss sichergestellt werden, dass sie ethisch handeln: dass sie nicht auf Zivilisten schießen und sich dem Kriegsrecht gemäß verhalten. Für Soldaten gibt es Einsatzregeln(öffnet im neuen Fenster) (Rules of Engagement, RoE), die festlegen, wann Gewalt angewandt werden darf. Dazu gehört, dass Soldaten das Feuer eröffnen dürfen, wenn sie bedroht oder beschossen werden. Solche Regeln ließen sich auch für Roboter festlegen.

Und vor allem: Sie müssen sicher sein. Das heißt, der Hersteller muss dafür sorgen, dass der Gegner den fair programmierten Kampfroboter nicht hacken und dazu bringen kann, wahllos auf Menschen zu schießen.

Gegner argumentieren, wenn ein bewaffneter Roboter feuere, treffe er eine Entscheidung über Leben und Tod eines Menschen. Damit macht er allerdings dasselbe wie ein Mensch. Und im Gegensatz zu ihm ist die Entscheidung in einer bedrohlichen Situation nicht von Stress bestimmt, der das klare Denken trübt.

Roboter handeln überlegt

Menschen machen unter Druck Fehler, schießen auf Nichtkombattanten oder die eigenen Kameraden. Ein Roboter dagegen kennt keinen Stress. Das bedeutet: Er kann die Einsatzregeln vielleicht sogar besser einhalten als ein Mensch. Er kann so programmiert werden, dass er eine Situation emotionslos abschätzt und seine Reaktion entsprechend wählt. Bewacht er beispielsweise eine Straßensperre, der sich ein Auto schnell nähert, könnte er länger abwarten, wie sich die Situation entwickelt, ob der Fahrer doch noch bremst oder versucht, die Sperre zu durchbrechen.

Und Roboter haben keine Gefühle. Das bedeutet ganz zentral: Sie haben auch keine Angst zu sterben. Sie werden nicht panisch, wütend, gestresst, rachsüchtig. Sie werden nicht plündern, vergewaltigen, foltern, wahllos Kriegsgefangene oder Zivilisten erschießen. Zumindest dann nicht, wenn sie auf Einhaltung des geltenden Kriegsrechts programmiert sind. Er sehe keinen Grund dafür, dass Maschinen künftig nicht in der Lage sein sollten, im Nebel des Krieges(öffnet im neuen Fenster) besser zu unterscheiden als Menschen, sagte Ronald Arkin, Robotiker am Georgia Institute of Technology, vor einiger Zeit dem h+-Magazin(öffnet im neuen Fenster) .

Software ist nicht unfehlbar

Doch natürlich ist Software nicht unfehlbar. Jeder, der regelmäßig Computer nutzt, kennt das. Es ist also damit zu rechnen, dass auch der Steuerungssoftware eines Kampfroboters früher oder später ein Fehler unterläuft.

Es geht also um Wahrscheinlichkeiten. Ein Beispiel: Ein autonomes Auto ist nicht zu 100 Prozent sicher. Kürzlich hat ein Radfahrer eines der Google-Autos aus dem Konzept gebracht : Er machte an einer Kreuzung einen Track Stand(öffnet im neuen Fenster) , stand also auf den Pedalen, statt die Füße auf den Boden zu stellen. Damit war die Software des Autos überfordert. Ein Mensch wäre mit dieser speziellen Situation vielleicht souveräner umgegangen.

Aber sagt das etwas über die Sicherheit autonom fahrender Autos aus? Die Google-Autos sind seit 2009 mehr als 1,6 Millionen Kilometer gefahren. Dabei wurden sie auch schon in Unfälle verwickelt . Laut Google wurde jedoch keiner davon von den Roboterautos verursacht.

Wer richtet also mehr Schaden an – Technik oder Mensch?

Es geht darum, Schaden zu verringern, nicht zu verhindern

Es sei unweigerlich, dass autonome Maschinen Schaden anrichten würden – Sachschaden, physische oder emotionale Verletzungen von Menschen, erklärte kürzlich Matthias Scheutz, Robotiker an der Tufts-Universität in Medford im US-Bundesstaat Massachusetts, im Interview mit dem österreichischen Nachrichtenangebot Futurezone(öffnet im neuen Fenster) . "Ich sage bewusst 'unweigerlich', weil es Situationen geben wird, wo jede mögliche Handlung zu Schaden führt. In solchen Situationen stellt sich daher nicht die Frage, wie man Schaden vermeidet, sondern wie man ihn minimieren kann."

Er sagte das über Roboter in der Arbeitswelt, aber die Aussage gilt ebenso für die bewaffneten Roboter: Kommt es zu einem Krieg, ist Schaden unvermeidlich. Die Frage ist: Wer richtet mehr Schaden an: Mensch oder Maschine?

Den Terminator verhindern

Das lässt sich heute noch nicht sagen. Manche Wissenschaftler, wie etwa Kenneth Anderson, Daniel Reisner und Matthew Waxman, plädieren deshalb dafür(öffnet im neuen Fenster) , Kampfroboter nicht zu diesem Zeitpunkt pauschal zu verbieten. Stattdessen sollten, schlagen sie vor, Entwickler, Hersteller, Politiker und Juristen gemeinsam dafür sorgen, dass künftig Militärtechnik entwickelt wird, die gemäß dem Kriegsrecht eingesetzt wird.

Und Roboter, die im direkten Kampf Mann gegen Maschine antreten, dürften ohnehin für das Militär nicht von zentralem Interesse sein: Bei künftigen Kampfrobotern wird es sich wohl meist um Waffensysteme handeln, die gegen die strategischen Ziele eines Gegners eingesetzt werden, seien es dessen Waffensysteme – autonom oder nicht – wie Raketenabschussrampen, Flugzeuge oder Schiffe oder seine Kommunikationssysteme.

IMHO ist der Kommentar von Golem.de. IMHO = In My Humble Opinion (Meiner bescheidenen Meinung nach)


Relevante Themen