Zum Hauptinhalt Zur Navigation

Project Soli: Google nutzt Radargerät für die Fingererkennung

Googles Forschungsabteilung ATAP will mit Finger- und Handbewegungen eine exakte Gestensteuerung realisieren – doch Kameras zur Auswertung sind dabei zu unpräzise. Was also tun? Googles Ingenieure besannen sich auf eine alte Technik, die auch in Flugzeugen eingesetzt wird.
/ Andreas Donath
2 Kommentare News folgen (öffnet im neuen Fenster)
Project Soli (Bild: Google)
Project Soli Bild: Google

Google will Hand- und Fingerbewegungen künftig mit einem Chip erkennen, der mit der althergebrachten Radio-Detection-and-Ranging-Technik funktioniert. Das ist nichts anderes als Radar(öffnet im neuen Fenster) . Gegenüber Kameras hat diese Technik einen gewaltigen Vorteil: Sie ist erheblich präziser und kann kleinste Veränderungen feststellen, die durch ein geändertes Echo entstehen, wenn die Hand bewegt wird. Die Kunst der Ingenieure bestand nun darin, die Technik auf Chipgröße zu miniaturisieren, um sie künftig zum Beispiel in Smartwatches, Smartphones und Tablets integrieren zu können.

Google – Project Soli (Herstellervideo)
Google – Project Soli (Herstellervideo) (03:56)

Google-Forschungsleiter Ivan Poupyrev stellte die Entwicklung auf der Konferenz Google I/O vor. Die alternative Eingabemethode könnte in besonders kleinen Geräten, die nur einen winzigen oder gar keinen Touchscreen haben, für deutlich mehr Eingabekomfort sorgen. Das gilt vor allem für Smartwatches, die derzeit vornehmlich über Spracheingaben gesteuert werden. Es dürfte vielen Nutzern in der Öffentlichkeit unangenehm sein, zu ihren Handgelenken zu sprechen, während Gesteneingaben akzeptabler sind.

Das Taschenradar kann zum Beispiel erkennen, ob der Nutzer Daumen und Zeigefinger berührt, um etwa die Bewegung eines Knopfdrucks nachzuahmen. Das Reiben der Fingerspitzen kann zum Beispiel als Lautstärkeregelung interpretiert werden und das Streichen der Daumenunterseite über den Zeigefinger als Schieberegler-Bewegung. Natürlich sind noch viele weitere Bewegungen erkenn- und interpretierbar.

Wie TheNextWeb(öffnet im neuen Fenster) berichtet, setzt Project Soli bei der Interpretation des zurückgeworfenen Signals auf maschinelles Lernen. Später sollen Entwickler per API auf die Auswertungen Zugriff erhalten, um die Steuerung in ihre Apps einzubinden. Ob die Radar-Technik wirklich einmal in Produkte eingebaut wird, ist nicht bekannt.


Relevante Themen