Original-URL des Artikels: https://www.golem.de/news/mit-forschung-das-smartphone-wird-zum-laser-entfernungsmesser-1604-120083.html    Veröffentlicht: 01.04.2016 12:06    Kurz-URL: https://glm.io/120083

MIT-Forschung

Das Smartphone wird zum Laser-Entfernungsmesser

Einen schwachen Laser, ein wenig Elektronik und einen Filter für die Kamera - mehr benötigen Forscher des MIT nicht, um einen Entfernungsmesser zu bauen, den sie auf ein Smartphone setzen. Im Nahbereich ist das System sehr genau.

Roboter und autonom fahrende Autos brauchen ein System, um die Entfernung zu Hindernissen zu bestimmen. Das Google-Auto etwa hat ein Lidar-System auf dem Dach, das über mehrere Zehntausend US-Dollar kostet. Das geht auch günstiger, wie Forscher des Massachusetts Institute of Technology (MIT) zeigen.

Smartphone-based Laser Distance Sensor (Smartphone LDS) heißt das System, das das Team vom Computer Science and Artificial Intelligence Laboratory (Csail) um Li-Shiuan Peh entwickelt hat: einen Laser-Entfernungsmesser, der auf das Smartphone Nexus 5 gesetzt wird. Das System besteht aus einem schwachen Laser mit Steuerelektronik und einem Bandbreitenfilter vor der Kamera.

Die Smartphone-Kamera erfasst Reflexion

Der Smartphone LDS arbeitet nach dem Prinzip der aktiven Triangulation: Der Laser sendet einen horizontalen Strahl aus. Der trifft auf ein Objekt und wird von diesem reflektiert. Der reflektierte Strahl trifft dann auf den Kamerasensor. Der Winkel, in dem der reflektierte Strahl auftrifft, ist abhängig von der Entfernung des Objekts. Aus diesem Winkel lässt sich dann die Entfernung zum Objekt berechnen.

Auf eine Entfernung von drei bis vier Metern liegt die Genauigkeit des Smartphone LDS im Bereich von Millimetern. Bei fünf Metern sinkt sie auf etwa sechs Zentimeter. Der große Vorteil des Smartphone LDS gegenüber anderen kostengünstigen Varianten für die Entfernungsmessung wie etwa Microsofts Kinect ist: Das System arbeitet auch bei hellem Kunstlicht oder im Sonnenschein.

Smartphone LDS filtert Tageslicht aus

Dazu zeichnet die Smartphone-Kamera Videos auf. Die eine Hälfte der Videobilder erfasst die Laserreflexionen, die andere das Umgebungsinfrarotlicht. Die Bilder werden miteinander verglichen und das Umgebungslicht herausgerechnet. Die Berechnungen finden im Smartphone statt. Der Prototyp nutzt eine Kamera, die 30 Bilder pro Sekunde aufzeichnet, was zu einer Verzögerung führt. Bei einer Kamera, die 240 Bilder pro Sekunde aufzeichnet, würde sich diese Verzögerung auf eine Sechzigstelsekunde reduzieren.

Gedacht sei das System, das weniger als 50 US-Dollar kostet, beispielsweise für Fahrzeuge wie Rollstühle oder Golfcarts, die dadurch autonom fahren könnten. Andere Einsatzmöglichkeiten könnten kleine Roboter oder Drohnen sein, sagen die MIT-Forscher - vorausgesetzt, sie sind nicht zu schnell unterwegs: Bei Tests auf einem Golfcart zeigte sich, dass ein Fahrzeug, das mit dem Smartphone LDS ausgerüstet ist, nicht schneller als 15 Kilometer pro Stunde sein sollte.

Man habe sich auf Geräte als Basis, nicht Fahrzeuge oder die Infrastruktur konzentriert, sagt Peh. "Das liegt daran, dass die Aktualisierungs- oder Austauschzyklen bei Telefonen kürzer seien als die von Fahrzeugen. Autos werden im Zeitraum von zehn Jahren ersetzt, Telefone alle ein bis zwei Jahre."  (wp)


Verwandte Artikel:
Modulare Smartphones: Lenovo kann Moto-Mods-Versprechen nicht halten   
(11.03.2018, https://glm.io/133266 )
Autonomes Fahren: Toyota kann bis zu 200 Meter in jede Richtung sehen   
(08.01.2018, https://glm.io/132004 )
Maschinelles Lernen: Gesichtserkennung ist zuverlässig - bei weißen Männern   
(12.02.2018, https://glm.io/132709 )
Hyperschallgeschwindigkeit: Projektil schießt sich durch den Boden   
(09.03.2018, https://glm.io/133257 )
Wintersport: Roboter Curly spielt Curling   
(08.03.2018, https://glm.io/133219 )

© 1997–2020 Golem.de, https://www.golem.de/