Project Soli: Google nutzt Radargerät für die Fingererkennung

Google will Hand- und Fingerbewegungen künftig mit einem Chip erkennen, der mit der althergebrachten Radio-Detection-and-Ranging-Technik funktioniert. Das ist nichts anderes als Radar(öffnet im neuen Fenster) . Gegenüber Kameras hat diese Technik einen gewaltigen Vorteil: Sie ist erheblich präziser und kann kleinste Veränderungen feststellen, die durch ein geändertes Echo entstehen, wenn die Hand bewegt wird. Die Kunst der Ingenieure bestand nun darin, die Technik auf Chipgröße zu miniaturisieren, um sie künftig zum Beispiel in Smartwatches, Smartphones und Tablets integrieren zu können.
.jpg)
Google-Forschungsleiter Ivan Poupyrev stellte die Entwicklung auf der Konferenz Google I/O vor. Die alternative Eingabemethode könnte in besonders kleinen Geräten, die nur einen winzigen oder gar keinen Touchscreen haben, für deutlich mehr Eingabekomfort sorgen. Das gilt vor allem für Smartwatches, die derzeit vornehmlich über Spracheingaben gesteuert werden. Es dürfte vielen Nutzern in der Öffentlichkeit unangenehm sein, zu ihren Handgelenken zu sprechen, während Gesteneingaben akzeptabler sind.
Das Taschenradar kann zum Beispiel erkennen, ob der Nutzer Daumen und Zeigefinger berührt, um etwa die Bewegung eines Knopfdrucks nachzuahmen. Das Reiben der Fingerspitzen kann zum Beispiel als Lautstärkeregelung interpretiert werden und das Streichen der Daumenunterseite über den Zeigefinger als Schieberegler-Bewegung. Natürlich sind noch viele weitere Bewegungen erkenn- und interpretierbar.
Wie TheNextWeb(öffnet im neuen Fenster) berichtet, setzt Project Soli bei der Interpretation des zurückgeworfenen Signals auf maschinelles Lernen. Später sollen Entwickler per API auf die Auswertungen Zugriff erhalten, um die Steuerung in ihre Apps einzubinden. Ob die Radar-Technik wirklich einmal in Produkte eingebaut wird, ist nicht bekannt.