Inception Attack: Neue Angriffstechnik ermöglicht Manipulation von VR-Inhalten

Forscher der University of Chicago haben eine neue Angriffstechnik namens Inception Attack entwickelt, mit der sich einem Bericht von MIT Technology Review(öffnet im neuen Fenster) zufolge sensible Informationen von Nutzern der Quest-VR-Systeme von Meta abgreifen sowie über die Plattform ausgetauschte Inhalte manipulieren lassen. Damit der Angriff gelingt, muss sich der Angreifer allerdings Zugang zu dem WLAN-Netz verschaffen, mit dem das anvisierte Headset verbunden ist.
Außerdem muss wohl der Entwicklermodus des VR-Systems aktiviert sein. Letzteres ist aber angeblich keine Seltenheit. Ein aktiver Entwicklermodus sei etwa erforderlich, um Apps von Drittanbietern herunterzuladen, die Auflösung des Headsets anzupassen oder Screenshots zu erstellen, heißt es in dem Bericht.
Dieser eigentlich für Debugging-Zwecke vorgesehene Modus lasse sich jedoch auch missbrauchen, um per Inception Attack den Startbildschirm und die Anwendungen des VR-Nutzers über das Netzwerk einzusehen und zu replizieren. Bildschirminhalte und Audiostreams des Anwenders würden dabei live zum Angreifer übertragen, während Letzterer die dem Nutzer angezeigten Inhalte kontrolliere.
Angreifer kann VR-Inhalte manipulieren
Der Angriff erfolgt demnach über eine bösartige App, die in das VR-System eingeschleust wird. Darüber kann der Angreifer laut MIT Technology Review den Startbildschirm des Nutzers klonen und "alles sehen, aufzeichnen und verändern, was die Person mit dem Headset macht" .
Möglich sei etwa ein Eingriff in das Onlinebanking des Nutzers. Nicht nur lasse sich die Eingabe der Zugangsdaten auf der Webseite der Bank beobachten. Den Forschern sei es auch gelungen, den Bildschirminhalt derart zu manipulieren, dass dem Anwender ein falscher Kontostand angezeigt wurde. Ferner sei es ihnen möglich gewesen, vom VR-Nutzer überwiesene Geldbeträge zu ändern, ohne dass der Anwender dies bemerkte.
Aber auch innerhalb der VRChat-App für Meta Quest ausgetauschte Nachrichten sind wohl durch die neue Angriffstechnik manipulierbar. Durch generative KI werde diese Bedrohung noch verschärft, heißt es bei MIT Technology Review. Angreifer könnten damit etwa Stimmen klonen und visuelle Deepfakes erzeugen, um Menschen während ihrer Interaktionen innerhalb der virtuellen Realität zu täuschen.
Der Angriff bleibt zumeist unbemerkt
Die Forscher untersuchten durch eigene Tests, wie viele VR-Nutzer einen Angriff mit Inception Attack während ihrer Interaktion mit einem Quest-Headset bemerken. Das Forscherteam wies insgesamt 27 freiwillige Teilnehmer unterschiedlicher VR-Erfahrungsgrade an, bestimmte VR-Anwendungen zu erkunden. Der Angriff wurde währenddessen ausgeführt, ohne dass die Probanden davon etwas wussten.
Lediglich 10 der 27 Teilnehmer bestätigten im Anschluss, während des Tests einen kleinen Ruckler bemerkt zu haben. 9 davon taten dies als einen normalen kleinen Aufhänger des Systems ab. Nur eine einzige Person, angeblich ein VR-Experte, erkannte eine verdächtige Aktivität. Die übrigen 17 Teilnehmer waren nach Angaben der Forscher völlig überrascht, als sie auf den durchgeführten Angriff hingewiesen wurden.
Details zu Inception Attack veröffentlichten die Forscher in einem 15-seitigen Paper (PDF)(öffnet im neuen Fenster) . Ein Peer Review steht noch aus. Meta bestätigte wohl, die Erkenntnisse des Forscherteams zu untersuchen. "Wir arbeiten ständig mit akademischen Forschern im Rahmen unseres Bug-Bounty-Programms und anderer Initiativen zusammen" , so ein Sprecher des Konzerns.



