Original-URL des Artikels: https://www.golem.de/1005/75340.html    Veröffentlicht: 25.05.2010 18:20    Kurz-URL: https://glm.io/75340

Eyephone

Klicken durch Zwinkern

Eyephone heißt eine von US-Wissenschaftlern entwickelte Software, mit der sich ein Smartphone berührungslos bedienen lässt: Die Software erfasst die Augenbewegungen des Nutzers und übersetzt sie in Mausbewegungen und Klicks.

Eine Gruppe von Forschern des Dartmouth College in Hanover im US-Bundesstaat New Hampshire hat ein berührungsloses System zu Bedienung von Smartphones entwickelt: Die Geräte sollen ihren Besitzern künftig die Wünsche von den Augen ablesen. Eyephone haben die Wissenschaftler um Andrew Campbell das System genannt.

Zwinkern statt Klicken

Sie haben Eyephone auf Nokias Internet Tablet N810 getestet: Die Kamera auf der Vorderseite nimmt die Augenbewegungen des Nutzers auf und übersetzt sie in Mausbewegungen auf dem Display. Der Mausklick erfolgt durch Zwinkern mit dem Auge.

Um das System nutzen zu können, muss Eyephone zunächst auf den Nutzer angepasst werden: Das System fordert ihn auf, sein rechtes Auge auf neun verschiedene Stellen auf dem Bildschirm zu richten - vergleichbar etwa mit dem Kalibrieren eines Touchscreens. Diese Übungen muss der Nutzer in verschiedenen Entfernungen vom Gerät sowie unter verschiedenen Lichtverhältnissen wiederholen.

Neun Schaltflächen

Entsprechend der Augenpositionen ist der Bildschirm für die Testanwendung Eyemenue in eine Matrix aus drei mal drei Feldern geteilt. Über die Augenbewegungen kann der Nutzer so verschiedene Funktionen des Gerätes aktivieren, etwa ein Gespräch annehmen oder beenden, im Web surfen oder eine E-Mail schreiben. Erkennt das System, welche Schaltfläche der Nutzer anschaut, wird diese markiert. Kneift er dann das rechte Auge zu, wird sie angeklickt.

Neben der berührungslosen Bedienung des Smartphone sehen die Wissenschaftler eine weitere Anwendung für Eyephone: Die Software könne als Sicherheitssystem für Autofahrer eingesetzt werden. Sie soll an der Augenstellung des Fahrers erkennen, ob er auf die Straße schaut, abgelenkt ist oder gar einschläft. Es sei einfacher, das Smartphone dafür nutzen, das ohnehin auf dem Armaturenbrett festgeklemmt wird, als spezielle Kameras und Sensoren dafür im Auto zu installieren, so die Wissenschaftler.

Neun Schaltflächen

Damit die Software die Augenbewegungen erkennen kann, muss der Nutzer gerade in die Kamera schauen. Entsprechend waren die Testergebnisse schlechter, wenn sich der Nutzer in Bewegung befand: Hier lag die Genauigkeit bei 60 Prozent. Stand der Anwender indes still, stieg der Trefferquote auf rund 75 Prozent.

Campbell und seine Kollegen wollen Eyephone auf der Konferenz "Mobiheld 2010 - The Second ACM Sigcomm Workshop on Networking, Systems, and Applications on Mobile Handhelds" vorstellen. Die Konferenz, die von der Informatikerorganisation ACM veranstaltet wird, findet Ende August in der indischen Hauptstadt Neu-Delhi statt.  (wp)


Verwandte Artikel:
SideSight macht den Tisch zum Touchscreen   
(29.10.2008, https://glm.io/63218 )
iPhone X: Zwei Argumente halten Apple-Kunden vom Kauf ab   
(07.03.2018, https://glm.io/133202 )
Eleague: E-Sport-Turniere in 360-Grad-VR anschauen   
(07.09.2017, https://glm.io/129939 )
Mensch-Computer-Schnittstelle: Per Augenzwinkern das Licht einschalten   
(31.07.2017, https://glm.io/129223 )
Studie: Tippen auf dem iPhone ist fehleranfällig   
(15.11.2007, https://glm.io/56006 )

© 1997–2019 Golem.de, https://www.golem.de/