25C3: Neue Regeln für die Entwicklung von Robotern
CCC-Mitglied Frank Rieger will einen TÜV für Roboter etablieren
Asimovs Robotergesetze aus dem Jahr 1942 gelten als nicht mehr zeitgemäß. Frank Rieger vom Chaos Computer Club (CCC) möchte deshalb ein bewährtes Modell auf die Robotik übertragen: Er fordert einen Überwachungsverein für Robotiker nach dem Vorbild der Dampfkessel-Überwachungs- und Revisions-Vereine aus dem 19. Jahrhundert.
Der Science-Fiction-Autor Isaac Asimov stellte in der Kurzgeschichte Runaround aus dem Jahr 1942 drei Gesetze für Roboter auf. Roboter, so die erste und oberste Forderung Asimovs, dürfen Menschen keinen Schaden zufügen oder zulassen, dass Mensche zu Schaden kommen. Außerdem sollen sie Anweisungen Folge leisten und sich selbst schützen - vorausgesetzt, diese beiden Gesetze verstoßen nicht gegen das erste.
- 25C3: Neue Regeln für die Entwicklung von Robotern
- 25C3: Neue Regeln für die Entwicklung von Robotern
Diese Forderungen seien jedoch überholt, erklärte CCC-Mitglied Frank Rieger beim 25. Chaos Communication Congress (25C3). Längst hat sich das Militär der Robotertechnik angenommen und setzt erste, wenn auch noch ferngesteuerte Kampfroboter ein - was britische Friedensaktivisten zu der Forderung nach Ächtung autonomer Kampfroboter veranlasst hat.
Gefahr droht jedoch nicht nur von Maschinengewehren, die auf einem Roboter montiert sind. Software sei im Allgemeinen fehlerbehaftet und heutzutage so komplex, dass nicht vorhersehbar sei, was sie tue. Das aber werfe, so Rieger, die Frage auf, wer für Schäden, die durch die Fehlfunktion eines Roboters entstehen, verantwortlich sei: der Besitzer oder Betreiber des Roboters, der ihn einsetzt, der Administrator, der ihn wartet, der Hersteller, der ihn gebaut hat, oder der Programmierer, der die Steuerungssoftware geschrieben hat?
Erschwert werde die Klärung der Verantwortlichkeit zusätzlich durch die Tatsache, dass die Technik dem Mensch zunehmend Entscheidungen abnimmt. Gelte etwa für Kampfroboter noch, dass allein der Mensch die Waffen abfeuern darf, werden in Kampfflugzeugen schon die Waffencomputer in die Entscheidung einbezogen, indem sie von sich aus Ziele markieren, die der Pilot ins Visier nehmen kann. Denkbar sei schließlich, dass autonome Systeme am Ende ihre Entscheidungen selbst fällen, ohne dass der Mensch noch die Möglichkeit zum Eingreifen habe.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
25C3: Neue Regeln für die Entwicklung von Robotern |
- 1
- 2
Vielleicht nicht 'veraltet' aber auf lange Sicht unanwendbar. In den meisten Texten...
Ich wundere mich, das sie sich bei so einer Veranstaltung um Robotik kümmern. Dieser...
ja das weiß mittlerweile jeder, das sind eben jene im artikel erwähnten kampfroboter...
Naja, bei der Armee sowieso. Fahrzeuge der Bundeswehr müssen ja auch nicht zum TÜV; das...