Spionage: Israelischer Spionagechef durch Faux-Pas bei Amazon enttarnt

Der britische Guardian(öffnet im neuen Fenster) hat herausgefunden, dass Yossi Sariel, dessen Name und Funktion eigentlich streng gehütete Geheimnisse sind, seine Identität durch ein Buch preisgegeben hat, das er unter einem Pseudonym auf Amazon veröffentlicht hat.
Das Buch mit dem Titel " The Human Machine Team(öffnet im neuen Fenster) " (Das Mensch-Maschine-Team) bietet eine radikale Vision, wie künstliche Intelligenz die Zusammenarbeit zwischen Militärpersonal und Maschinen verändern kann.
Das im Jahr 2021 unter den Initialen YS veröffentlichte Buch lieferte eine Blaupause für die KI-gestützten Systeme, die die israelischen Verteidigungskräfte (IDF) angeblich im Krieg in Gaza einsetzen.
Sariels Identität wurde durch eine E-Mail-Adresse aufgedeckt, die in der elektronischen Version des Buches enthalten war und die leicht zu seinem Namen und seinem Google-Konto zurückverfolgt werden konnte. Ein IDF-Sprecher sagte dem Guardian, dass die E-Mail-Adresse speziell für Fragen im Zusammenhang mit dem Buch bestimmt gewesen sei. Nähere Umstände zu der Enttarnung wurden nicht genannt.
Umstrittene Amtszeit und das Scheitern der Einheit 8200
Sariels Arbeit als Leiter der Einheit 8200 ist von Kontroversen geprägt. Die Einheit, die einst für ihre nachrichtendienstlichen Fähigkeiten gerühmt wurde, steht in der Kritik, weil sie den tödlichen Hamas-Angriff auf den Süden Israels am 7. Oktober letzten Jahres, bei dem fast 1.200 Israelis ermordet und etwa 240 Menschen entführt wurden, nicht vorhersehen und verhindern konnte.
Einige Kritiker warfen der Einheit 8200 laut Guardian vor, "technologische Hybris" über konventionelle Aufklärungsmethoden zu stellen, was zu dem Versagen der Aufklärung geführt habe. Die IDF scheinen sich Sariels Vision vom Einsatz von KI zur Erfüllung komplexer Aufgaben auf dem Schlachtfeld, wie in seinem Buch beschrieben, zu eigen gemacht zu haben.
KI-gesteuerte Zielauswahl
In seinem Buch plädiert Sariel für das Konzept von KI-gesteuerten Zielempfehlungssystemen, die die sich die IDF bei der Bombardierung des Gazastreifens angeblich nutzen. Die Streitkräfte sollen einem früheren Bericht nach mehrere KI-gestützte Entscheidungshilfesysteme wie Gospel und Lavender einsetzen.
Die IDF erklärten, dass diese KI-Systeme die menschlichen Geheimdienstmitarbeiter bei der Überprüfung der Legitimität militärischer Verdächtiger nach internationalem Recht unterstützen sollten.
In Sariels Buch wird argumentiert, dass der Einsatz von KI zur Erstellung potenzieller militärischer Ziele effizienter sei und von Geheimdienstmitarbeitern oder Soldaten verursachte Engpässe vermeiden könne.
Kritiker innerhalb der israelischen Nachrichtendienste seien jedoch der Ansicht, dass die Bevorzugung "süchtig machender und aufregender" Technologien gegenüber traditionellen nachrichtendienstlichen Methoden zu der Katastrophe vom 7. Oktober beigetragen habe, berichtet der Guardian.



