Roboter haben keine Angst
Es muss sichergestellt werden, dass sie ethisch handeln: dass sie nicht auf Zivilisten schießen und sich dem Kriegsrecht gemäß verhalten. Für Soldaten gibt es Einsatzregeln (Rules of Engagement, RoE), die festlegen, wann Gewalt angewandt werden darf. Dazu gehört, dass Soldaten das Feuer eröffnen dürfen, wenn sie bedroht oder beschossen werden. Solche Regeln ließen sich auch für Roboter festlegen.
Und vor allem: Sie müssen sicher sein. Das heißt, der Hersteller muss dafür sorgen, dass der Gegner den fair programmierten Kampfroboter nicht hacken und dazu bringen kann, wahllos auf Menschen zu schießen.
Gegner argumentieren, wenn ein bewaffneter Roboter feuere, treffe er eine Entscheidung über Leben und Tod eines Menschen. Damit macht er allerdings dasselbe wie ein Mensch. Und im Gegensatz zu ihm ist die Entscheidung in einer bedrohlichen Situation nicht von Stress bestimmt, der das klare Denken trübt.
Roboter handeln überlegt
Menschen machen unter Druck Fehler, schießen auf Nichtkombattanten oder die eigenen Kameraden. Ein Roboter dagegen kennt keinen Stress. Das bedeutet: Er kann die Einsatzregeln vielleicht sogar besser einhalten als ein Mensch. Er kann so programmiert werden, dass er eine Situation emotionslos abschätzt und seine Reaktion entsprechend wählt. Bewacht er beispielsweise eine Straßensperre, der sich ein Auto schnell nähert, könnte er länger abwarten, wie sich die Situation entwickelt, ob der Fahrer doch noch bremst oder versucht, die Sperre zu durchbrechen.
Und Roboter haben keine Gefühle. Das bedeutet ganz zentral: Sie haben auch keine Angst zu sterben. Sie werden nicht panisch, wütend, gestresst, rachsüchtig. Sie werden nicht plündern, vergewaltigen, foltern, wahllos Kriegsgefangene oder Zivilisten erschießen. Zumindest dann nicht, wenn sie auf Einhaltung des geltenden Kriegsrechts programmiert sind. Er sehe keinen Grund dafür, dass Maschinen künftig nicht in der Lage sein sollten, im Nebel des Krieges besser zu unterscheiden als Menschen, sagte Ronald Arkin, Robotiker am Georgia Institute of Technology, vor einiger Zeit dem h+-Magazin.
Software ist nicht unfehlbar
Doch natürlich ist Software nicht unfehlbar. Jeder, der regelmäßig Computer nutzt, kennt das. Es ist also damit zu rechnen, dass auch der Steuerungssoftware eines Kampfroboters früher oder später ein Fehler unterläuft.
Es geht also um Wahrscheinlichkeiten. Ein Beispiel: Ein autonomes Auto ist nicht zu 100 Prozent sicher. Kürzlich hat ein Radfahrer eines der Google-Autos aus dem Konzept gebracht: Er machte an einer Kreuzung einen Track Stand, stand also auf den Pedalen, statt die Füße auf den Boden zu stellen. Damit war die Software des Autos überfordert. Ein Mensch wäre mit dieser speziellen Situation vielleicht souveräner umgegangen.
Aber sagt das etwas über die Sicherheit autonom fahrender Autos aus? Die Google-Autos sind seit 2009 mehr als 1,6 Millionen Kilometer gefahren. Dabei wurden sie auch schon in Unfälle verwickelt. Laut Google wurde jedoch keiner davon von den Roboterautos verursacht.
Wer richtet also mehr Schaden an - Technik oder Mensch?
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
IMHO: Roboter plündern nicht | Es geht darum, Schaden zu verringern, nicht zu verhindern |
Wäre ich auch voll dafür, aber so funktioniert es leider nicht. kwt
Es gibt für Menschen schlichtweg eine "Dauer" die es unmöglich macht zu einer Lösung zu...
"Roboter plündern nicht" stimmt, sofern sie nicht darauf programmiert wurden. Jedoch...
Roboter plündern nicht ? Nein sie töten auf Verlangen ! Wer putzende Roboter mag, muss...