Waffensystem Spur: Menschen töten, so einfach wie Atmen

Stellen wir uns folgendes Szenario vor: Ein stapfendes Geräusch im Wald, wir sind in Position. Schauen wir auf unsere Fernsteuerung, sehen wir das Ziel. Es ist, als stünden wir direkt daneben, denn wir zoomen mit 30-facher Vergrößerung heran, sehen den Ausdruck auf dem Gesicht des Feindes. Er scheint gerade eine Raucherpause zu machen - der perfekte Moment, um den Feuerknopf zu drücken und ihn aus sicheren 1.200 Metern und im Schutze der Dunkelheit auszuschalten. Es ist so einfach, wenn wir nicht einmal mehr selbst vor Ort sind.
Waffensysteme wie Spur(öffnet im neuen Fenster) auf vierbeinigen Roboter-Plattformen markieren den Anfang solcher Szenarien, in denen das Töten von Menschen zur maschinellen Präzisionsarbeit wird, Soldaten aus sicherer Entfernung in ihrem Container auf der Basis im Nachbarstaat ihre Mission erfolgreich abschließen: Menschen töten leicht gemacht.
Genau solche Szenarien dürfen aber nicht passieren. Kampfroboter haben weder Applaus noch Bewunderung verdient. Im Gegenteil: Ihre Entwicklung sollte stärker reguliert und eingeschränkt werden. Das fängt bereits bei ferngesteuerten Systemen wie Spur an, die zweifelsohne früher oder später komplett autonom agieren.
Nun ist das Argument einiger Befürworter für ferngesteuerte und autonome Waffen oft, dass gerade dadurch Menschenleben gerettet würden. Schließlich werde im Falle eines Gefechtes nur Materialwert vernichtet. So müssten Offiziere den Familien nicht erklären, dass ihr geliebtes Kind auf einer Routinemission in einem völlig fremden Land ohne Sinn gestorben sei.
Schon vom Urinstinkt aus gesehen bringen sich Menschen generell normalerweise nicht gern gegenseitig um, sie wollen eben nicht selbst sterben - abgesehen davon, dass weitere psychologische Aspekte dazukommen. Tauschen wir die menschliche Komponente aus und bauen stattdessen Kampfroboter, werden diese Hemmungen genommen. Das Rechtfertigen von militärischen Aktionen wird dadurch einfacher, denn es werden ja keine Menschen dabei verletzt, zumindest nicht die eigenen Bürger.



Das von Sword Defense Systems gezeigte Modul ist ein Schritt in diese Richtung. "Spur ist die Zukunft der unbemannten Waffensysteme, und diese Zukunft ist heute" , brüstet sich der US-Waffenkonzern. Dabei zeigt er das Scharfschützengewehr mit zehn Patronen vom Kaliber 7,62 x 51 Nato im Magazin, einem größeren Kaliber für möglichst große Entfernungen.
Das System wird in einem Tarnkappengehäuse versteckt - falls die Entwicklungsländer, in denen solche Waffen sicher zuerst getestet werden, fiese Radartechnik verwenden! Wärmebildkameras und Nachtsichtgerät dürfen natürlich auch nicht fehlen.
Roboterplattform bereits gewählt
In einer Demonstration zeigte Sword die Waffe auf dem vierbeinigen Roboter Vision-60 von Ghost Robotics. Der erinnert stark an den von Boston Dynamics entwickelten Roboter Spot, der in einem Video(öffnet im neuen Fenster) noch lustig zu Musik tanzte.
Boston Dynamics selbst hat sich bisher verhalten gegen den Einsatz von Spot als Kampfsystem ausgesprochen, lieferte den eigenen Roboter aber etwa auch an Polizeibehörden aus. Nach Kritik wurde der Einsatz allerdings vorzeitig abgebrochen.
Unternehmen wie Ghost Robotics zeigen mit dem Vision-60(öffnet im neuen Fenster) , dass Boston Dynamics längst nicht mehr der einzige Roboterkonzern für Plattformen ist, die als automatisierte Infanterie genutzt werden können. In diesem Kontext ist der Slogan von Ghost Robotics makaber: "Roboter, die die Welt fühlen."
Was tun gegen autonome Waffen?
Es ist klar: Auch wenn sich Roboterhersteller gegen autonome Waffen aussprechen, ist dieser Fortschritt kaum aufzuhalten. Denn es wird immer Konzerne geben, denen Geld wichtiger ist als moralische Fragen.
Es gibt Initiativen, die den Trend zumindest verlangsamen wollen. Die Campaign to Stop Killer Robots(öffnet im neuen Fenster) etwa wird von 200 Technologiekonzernen aktiv unterstützt. Sie wurde 2021 auch für den Friedensnobelpreis nominiert und setzt sich seit 2013 für das Verbot von Kampfrobotern ein. Ferngesteuerte Roboter . die Vorstufe automatisierter Waffen - werden dadurch aber nicht verhindert.
Nationen und Unternehmen müssen Stellung beziehen
Auch einzelne Unternehmen wie Google distanzieren sich mittlerweile von der Entwicklung autonomer Waffen. Allerdings passierte das erst, nachdem ein großer Teil der Belegschaft gegen das Drohnenprojekt Maven protestierte und das Management daher agieren musste.
Um den Einsatz von Kampfrobotern zumindest einzuschränken, sollten sich große Organisationen wie die Nato, eines der aktuell mächtigsten Militärbündnisse, für Regulierungen und Gesetze aussprechen. Auch liegt es an den großen Militärmächten wie Russland, China, den USA und auch an Deutschland, gesetzliche Regeln zu schaffen.
Sind wir allerdings realistisch, dann wissen wir ganz genau: Das wird nicht passieren.
IMHO ist der Kommentar von Golem.de [IMHO = In My Humble Opinion (Meiner bescheidenen Meinung nach)]



