Roboter haben keine Angst

Es muss sichergestellt werden, dass sie ethisch handeln: dass sie nicht auf Zivilisten schießen und sich dem Kriegsrecht gemäß verhalten. Für Soldaten gibt es Einsatzregeln (Rules of Engagement, RoE), die festlegen, wann Gewalt angewandt werden darf. Dazu gehört, dass Soldaten das Feuer eröffnen dürfen, wenn sie bedroht oder beschossen werden. Solche Regeln ließen sich auch für Roboter festlegen.

Und vor allem: Sie müssen sicher sein. Das heißt, der Hersteller muss dafür sorgen, dass der Gegner den fair programmierten Kampfroboter nicht hacken und dazu bringen kann, wahllos auf Menschen zu schießen.

Gegner argumentieren, wenn ein bewaffneter Roboter feuere, treffe er eine Entscheidung über Leben und Tod eines Menschen. Damit macht er allerdings dasselbe wie ein Mensch. Und im Gegensatz zu ihm ist die Entscheidung in einer bedrohlichen Situation nicht von Stress bestimmt, der das klare Denken trübt.

Roboter handeln überlegt

Menschen machen unter Druck Fehler, schießen auf Nichtkombattanten oder die eigenen Kameraden. Ein Roboter dagegen kennt keinen Stress. Das bedeutet: Er kann die Einsatzregeln vielleicht sogar besser einhalten als ein Mensch. Er kann so programmiert werden, dass er eine Situation emotionslos abschätzt und seine Reaktion entsprechend wählt. Bewacht er beispielsweise eine Straßensperre, der sich ein Auto schnell nähert, könnte er länger abwarten, wie sich die Situation entwickelt, ob der Fahrer doch noch bremst oder versucht, die Sperre zu durchbrechen.

Und Roboter haben keine Gefühle. Das bedeutet ganz zentral: Sie haben auch keine Angst zu sterben. Sie werden nicht panisch, wütend, gestresst, rachsüchtig. Sie werden nicht plündern, vergewaltigen, foltern, wahllos Kriegsgefangene oder Zivilisten erschießen. Zumindest dann nicht, wenn sie auf Einhaltung des geltenden Kriegsrechts programmiert sind. Er sehe keinen Grund dafür, dass Maschinen künftig nicht in der Lage sein sollten, im Nebel des Krieges besser zu unterscheiden als Menschen, sagte Ronald Arkin, Robotiker am Georgia Institute of Technology, vor einiger Zeit dem h+-Magazin.

Software ist nicht unfehlbar

Doch natürlich ist Software nicht unfehlbar. Jeder, der regelmäßig Computer nutzt, kennt das. Es ist also damit zu rechnen, dass auch der Steuerungssoftware eines Kampfroboters früher oder später ein Fehler unterläuft.

Es geht also um Wahrscheinlichkeiten. Ein Beispiel: Ein autonomes Auto ist nicht zu 100 Prozent sicher. Kürzlich hat ein Radfahrer eines der Google-Autos aus dem Konzept gebracht: Er machte an einer Kreuzung einen Track Stand, stand also auf den Pedalen, statt die Füße auf den Boden zu stellen. Damit war die Software des Autos überfordert. Ein Mensch wäre mit dieser speziellen Situation vielleicht souveräner umgegangen.

Aber sagt das etwas über die Sicherheit autonom fahrender Autos aus? Die Google-Autos sind seit 2009 mehr als 1,6 Millionen Kilometer gefahren. Dabei wurden sie auch schon in Unfälle verwickelt. Laut Google wurde jedoch keiner davon von den Roboterautos verursacht.

Wer richtet also mehr Schaden an - Technik oder Mensch?

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
 IMHO: Roboter plündern nichtEs geht darum, Schaden zu verringern, nicht zu verhindern 
  1.  
  2. 1
  3. 2
  4. 3
  5.  


Llame 14. Sep 2015

Wäre ich auch voll dafür, aber so funktioniert es leider nicht. kwt

theonlyone 11. Sep 2015

Es gibt für Menschen schlichtweg eine "Dauer" die es unmöglich macht zu einer Lösung zu...

Anonymer Nutzer 10. Sep 2015

"Roboter plündern nicht" stimmt, sofern sie nicht darauf programmiert wurden. Jedoch...

Whykinger 09. Sep 2015

Roboter plündern nicht ? Nein sie töten auf Verlangen ! Wer putzende Roboter mag, muss...



Aktuell auf der Startseite von Golem.de
Whistleblower
Ehemaliger US-Konteradmiral äußert sich zu Außerirdischen

Wieder hat sich in den USA ein ehemals hochrangiger Militär und Beamter über Kontakte mit Aliens geäußert.

Whistleblower: Ehemaliger US-Konteradmiral äußert sich zu Außerirdischen
Artikel
  1. Schadstoffnorm 7: Neue Grenzwerte für Abrieb gelten auch für E-Autos
    Schadstoffnorm 7
    Neue Grenzwerte für Abrieb gelten auch für E-Autos

    Die neue Euronorm 7 legt nicht nur Grenzwerte für Bremsen- und Reifenabrieb fest, sondern auch Mindestanforderungen für Akkus.

  2. Ramjet: General Electric testet Hyperschalltriebwerk
    Ramjet
    General Electric testet Hyperschalltriebwerk

    Das Triebwerk soll Flüge mit Mach 5 ermöglichen.

  3. Elektroautos: Mercedes und Stellantis übernehmen komplette Umweltprämie
    Elektroautos
    Mercedes und Stellantis übernehmen komplette Umweltprämie

    Nach dem abrupten Aus der staatlichen Förderung springen erste Hersteller von Elektroautos ein.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    • Daily Deals • Last-Minute-Angebote bei Amazon • Avatar & The Crew Motorfest bis -50% • Xbox Series X 399€ • Cherry MX Board 3.0 S 49,95€ • Crucial MX500 2 TB 110,90€ • AVM FRITZ!Box 7590 AX + FRITZ!DECT 500 219€ [Werbung]
    •  /