Roboter haben keine Angst

Es muss sichergestellt werden, dass sie ethisch handeln: dass sie nicht auf Zivilisten schießen und sich dem Kriegsrecht gemäß verhalten. Für Soldaten gibt es Einsatzregeln (Rules of Engagement, RoE), die festlegen, wann Gewalt angewandt werden darf. Dazu gehört, dass Soldaten das Feuer eröffnen dürfen, wenn sie bedroht oder beschossen werden. Solche Regeln ließen sich auch für Roboter festlegen.

Stellenmarkt
  1. IT-Betreuer / Benutzerunterstützung (m/w/d)
    Zweckverband Verkehrsverbund Großraum Ingolstadt, VGI, Ingolstadt
  2. SAP Basis Administrator (w/m/d)
    Dataport, Altenholz bei Kiel, Bremen, Hamburg, Magdeburg, Rostock
Detailsuche

Und vor allem: Sie müssen sicher sein. Das heißt, der Hersteller muss dafür sorgen, dass der Gegner den fair programmierten Kampfroboter nicht hacken und dazu bringen kann, wahllos auf Menschen zu schießen.

Gegner argumentieren, wenn ein bewaffneter Roboter feuere, treffe er eine Entscheidung über Leben und Tod eines Menschen. Damit macht er allerdings dasselbe wie ein Mensch. Und im Gegensatz zu ihm ist die Entscheidung in einer bedrohlichen Situation nicht von Stress bestimmt, der das klare Denken trübt.

Roboter handeln überlegt

Menschen machen unter Druck Fehler, schießen auf Nichtkombattanten oder die eigenen Kameraden. Ein Roboter dagegen kennt keinen Stress. Das bedeutet: Er kann die Einsatzregeln vielleicht sogar besser einhalten als ein Mensch. Er kann so programmiert werden, dass er eine Situation emotionslos abschätzt und seine Reaktion entsprechend wählt. Bewacht er beispielsweise eine Straßensperre, der sich ein Auto schnell nähert, könnte er länger abwarten, wie sich die Situation entwickelt, ob der Fahrer doch noch bremst oder versucht, die Sperre zu durchbrechen.

Golem Karrierewelt
  1. Container Management und Orchestrierung: virtueller Drei-Tage-Workshop
    26.-28.09.2022, Virtuell
  2. Java EE 8 Komplettkurs: virtueller Fünf-Tage-Workshop
    12.-16.09.2022, virtuell
Weitere IT-Trainings

Und Roboter haben keine Gefühle. Das bedeutet ganz zentral: Sie haben auch keine Angst zu sterben. Sie werden nicht panisch, wütend, gestresst, rachsüchtig. Sie werden nicht plündern, vergewaltigen, foltern, wahllos Kriegsgefangene oder Zivilisten erschießen. Zumindest dann nicht, wenn sie auf Einhaltung des geltenden Kriegsrechts programmiert sind. Er sehe keinen Grund dafür, dass Maschinen künftig nicht in der Lage sein sollten, im Nebel des Krieges besser zu unterscheiden als Menschen, sagte Ronald Arkin, Robotiker am Georgia Institute of Technology, vor einiger Zeit dem h+-Magazin.

Software ist nicht unfehlbar

Doch natürlich ist Software nicht unfehlbar. Jeder, der regelmäßig Computer nutzt, kennt das. Es ist also damit zu rechnen, dass auch der Steuerungssoftware eines Kampfroboters früher oder später ein Fehler unterläuft.

Es geht also um Wahrscheinlichkeiten. Ein Beispiel: Ein autonomes Auto ist nicht zu 100 Prozent sicher. Kürzlich hat ein Radfahrer eines der Google-Autos aus dem Konzept gebracht: Er machte an einer Kreuzung einen Track Stand, stand also auf den Pedalen, statt die Füße auf den Boden zu stellen. Damit war die Software des Autos überfordert. Ein Mensch wäre mit dieser speziellen Situation vielleicht souveräner umgegangen.

Aber sagt das etwas über die Sicherheit autonom fahrender Autos aus? Die Google-Autos sind seit 2009 mehr als 1,6 Millionen Kilometer gefahren. Dabei wurden sie auch schon in Unfälle verwickelt. Laut Google wurde jedoch keiner davon von den Roboterautos verursacht.

Wer richtet also mehr Schaden an - Technik oder Mensch?

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
 IMHO: Roboter plündern nichtEs geht darum, Schaden zu verringern, nicht zu verhindern 
  1.  
  2. 1
  3. 2
  4. 3
  5.  


Llame 14. Sep 2015

Wäre ich auch voll dafür, aber so funktioniert es leider nicht. kwt

theonlyone 11. Sep 2015

Es gibt für Menschen schlichtweg eine "Dauer" die es unmöglich macht zu einer Lösung zu...

Anonymer Nutzer 10. Sep 2015

"Roboter plündern nicht" stimmt, sofern sie nicht darauf programmiert wurden. Jedoch...

Whykinger 09. Sep 2015

Roboter plündern nicht ? Nein sie töten auf Verlangen ! Wer putzende Roboter mag, muss...



Aktuell auf der Startseite von Golem.de
Betrug
Wenn die Phishing-Mail wirklich von Paypal kommt

Die E-Mail stammt von Paypals Servern und weist auf eine unter Paypal.com einsehbare Transaktion hin. Doch hinter E-Mail und Hotline stecken Betrüger.

Betrug: Wenn die Phishing-Mail wirklich von Paypal kommt
Artikel
  1. James Webb Space Telescope: Das Weltraumteleskop wird mit Javascript betrieben
    James Webb Space Telescope
    Das Weltraumteleskop wird mit Javascript betrieben

    Die in der Raumfahrt verwendete Software ist manchmal kurios. Im Fall des JWST wird das ISIM mit Javascript kontrolliert und betrieben.

  2. Botnetz: Google blockiert Rekord-DDoS-Angriff
    Botnetz
    Google blockiert Rekord-DDoS-Angriff

    Für einen Kunden konnte Google den größten HTTPS-basierten DDoS-Angriff mit 46 Millionen Anfragen pro Sekunde abwehren.

  3. Drohende Zahlungsunfähigkeit: IT-Jobportal 4Scotty meldet Insolvenz an
    Drohende Zahlungsunfähigkeit
    IT-Jobportal 4Scotty meldet Insolvenz an

    Bereits am 10. August 2022 reichte 4Scotty den Insolvenzantrag ein. Der Geschäftsbetrieb geht dennoch normal weiter.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    Daily Deals • MindStar (MSI RTX 3090 Gaming 1.269€, Seagate Festplatte ext. 18 TB 295€) • PS5-Deals (Uncharted Legacy of Thieves 15,38€, Horzizon FW 39,99€) • HP HyperX Gaming-Maus -51% • Alternate (Kingston Fury DDR5-6000 32GB 219,90€ statt 246€) • Samsung Galaxy S22+ 5G 128 GB 839,99€ [Werbung]
    •  /