Original-URL des Artikels: https://www.golem.de/news/bitalino-drohnen-steuern-wie-ein-jedi-1406-107222.html    Veröffentlicht: 18.06.2014 09:10    Kurz-URL: https://glm.io/107222

Bitalino

Drohnen steuern wie ein Jedi

In einem Youtube-Video zeigt Hugo Silva, wie er eine Drohne mit Hilfe von Hand- und Armbewegungen steuert. Golem.de erzählte er, wie das funktioniert und wie es dazu kam.

Hugo Silva stülpt sich eine Art Handschuh mit ein wenig Elektronik über, und dann lässt er mit Hand- und Armbewegungen den Quadrocopter Parrot AR.Drone auf- und absteigen und kurze Flugmanöver vollführen. Uns erklärt er, welche Elektronik im Handschuh steckt, wie er sie programmiert hat und wie wir selbst Dinge nach Art der Jedi steuern können.


Im Handschuh sind das Bitalino-Mikrocontrollerboard und mehrere Sensoren eingebaut, welche die Muskeltätigkeit erfassen und ein Beschleunigungssensor, sie erkennen die Bewegungen und Gesten der Hand und des Armes. Zur Erfassung der Muskeltätigkeit dient ein Elektromyographie-Sensor, wie Silva erklärt.

Bei der Elektromyographie (EMG) wird der elektrische Stromfluss der Nervenfasern im Muskel beobachtet. Wenn ein Muskel entspannt ist, fließt kein oder nur wenig Strom durch die entsprechenden Nervenfasern. Wird er angespannt, steigt der Stromfluss. Der Sensor misst diese Änderungen der Strompotenziale. Auf diese Weise wird das Beugen der Hand erkannt. Der Beschleunigungssensor erfasst die Drehbewegung des Armes.

Diese Signale werden vom Mikrocontroller registriert und per Bluetooth über das Serial Port Profile (SPP) an einen Laptop geschickt. Dieser nimmt die empfangenen Daten auf und steuert mit Hilfe einer Python-Bibliothek die Drohne über WLAN. "Die grundlegende Umsetzung war nicht schwer", sagt Silva. Gerade die Ansteuerung der Drohne über die Python-Bibliothek habe er überraschend einfach gefunden.



Sensordaten entrauschen



Mehr Nachdenken habe die Verarbeitung der Sensorendaten erfordert. Kaum ein Mensch könne seinen Arm absolut ruhig halten, und auch die Sensoren selbst könnten ein gewisses Signalrauschen produzieren. Würde das Signal nicht geglättet, dann würde die Drohne unruhig zittern. Zum Glätten wird der gleitende Mittelwert über einen bestimmten Zeitraum ermittelt, laut Silva eine "einfache, aber wirkungsvolle Methode".

Insgesamt will er nur acht bis zehn Stunden für die gesamte Programmierung gebraucht haben. Den Quellcode, nicht nur für die Sensor-Entrauschung, sondern für das gesamte Projekt, will Silva demnächst öffentlich publizieren.

Den Menschen komfortabel verdrahten

Interessant ist das Design des Handschuhs. Es handelt sich eher um ein Armband, das an der Hand und am Handgelenk fixiert wird, damit es nicht verrutschen kann, und das im Rahmen des ICT4Depression-Projektes entwickelt wurde.

Für das Projekt wurde eine Möglichkeit gesucht, kontinuierlich medizinische Daten zu erheben, ohne den Träger in seinem Alltag einzuschränken. Durch das Design bleiben die Sensoren an den Messpunkten, der Arm und die Hand können aber frei bewegt werden. Da die verarbeitende Elektronik sich ebenfalls im Handschuh befindet, ist keine störende Verkabelung mit einer externen Box notwendig.

Laut Silva waren frühe Entwürfe - damals handelte es sich noch nicht um einen Handschuh, sondern um ein reines Armband - noch deutlich unpraktischer. Silva verwendete noch gegelte Elektroden, die jedes Mal an der richtigen Stelle angebracht werden mussten, und lose geführte Kabel. Erst mit "trockenen" EMG-Elektroden wurde ein deutlicher Gewinn an Benutzerfreundlichkeit erreicht.

Starten ohne Training



Durch eine Greifbewegung der Hände startet und landet die Drohne, wird die Hand nach links oder rechts geneigt, dreht sie sich entsprechend. Mit einer Kippbewegung der Hand nach oben oder unten fliegt die Drohne vorwärts oder rückwärts. Die Entscheidung, mit welchen Bewegungen die Drohne gesteuert wird, fiel intuitiv, wie Silva erzählt. Für die Steuerung sei kein Training notwendig, sagt er. Anwender könnten nur die Empfindlichkeit der Sensoren an ihre eigenen Wünsche anpassen.

Der eigene Körper als Steuerungsinstrument

Hugo Silva beschäftigt sich seit dem Jahr 2003 mit der Erhebung und Auswertung von Biosignalen für verschiedene Aufgaben, als er noch Informatik studierte. EMG, ECG und EDA-Sensoren seien damals eine Domäne der Medizin gewesen, erzählt er, und entsprechende Technik sehr teuer. Daher habe er zusammen mit anderen die Firma Plux gegründet, um Sensorik und Auswertungselektronik für professionelle Anwendungen zu geringeren Preisen zu produzieren. Es sei ihnen zwar nicht gelungen, die Preise der anderen zu unterbieten, trotzdem hätten sie sich als Anbieter für insbesondere kabellose Geräte etablieren können.

Die entsprechenden Kenntnisse bei der Entwicklung dieser professionellen Produkte seien jedoch in das Bitalino-Projekt eingeflossen. Es sei eine Kooperation zwischen Plux und dem nicht-kommerziellen Forschungsinstitut IT - Instituto de Telecomunicações. Der Bitalino sei als "Experimentier-Plattform für Entwickler konzipiert, welche preiswert sein sollte, aber auch eine gute und einfache Auswertung von Biosignalen für Wearables erlaubt", sagt Silva, der an diesem Projekt im Rahmen seiner Doktorarbeit beteiligt war.

Das Bitalino-Projekt umfasst nicht nur einen Mikrocontroller und Anschlüsse für verschiedenste Biosignal-Sensoren, sondern auch eine Anzeigesoftware und zugehörige APIs für verschiedene Plattformen und Programmiersprachen - selbst für die Unity-Engine.



Bitalino vs. OpenEEG



Der Bitalino ist nicht das erste Projekt, das zu vertretbaren Preisen Biosignale erfassen will. Das OpenEEG-Projekt versucht, eine offene Plattform zu etablieren, um Gehirnströme zu erfassen und für Steuerungsaufgaben einzusetzen.

Silva bezeichnet OpenEEG als eine Inspiration für den Bitalino. Die verfügbare OpenEEG-Hardware entspreche aber "nicht mehr dem Stand der Technik" und richte sich zu sehr an "Hardcore"-Anwender.

Den Computer überflüssig machen

Derzeit ist noch ein Computer oder ein Smartphone nötig, um die Drohne zu steuern. Das liege aber allein daran, dass die jetzige Bitalino-Elektronik noch nicht mit einem WLAN verbunden werden könne. Silva plant, dafür entweder eine Mikrocontroller-basierte UART-zu-Wifi-Lösung zu nutzen oder einen Raspberry Pi mit einem WLAN-Stick.

Fühlen statt sehen

Wird heute von Körper- und Gestensteuerung gesprochen, denken viele eher an Kinect und Leap Motion als an Wiimote und Power Glove. Zugegeben: Die Wiimote ist nicht für alle Steuerungsaufgaben intuitiv zu verwenden und der Power Glove versprach viel, konnte davon aber wenig halten und war eher unbequem. Dabei benötigt die direkte Auswertung von Biosignalen deutlich weniger Rechenpower als Bilderkennungssysteme. In den Zeiten von Wearables und körpernaher Elektronik eröffnen EMG, ECG und EDA-Sensoren aussichtsreiche Möglichkeiten.  (am)


Verwandte Artikel:
Parrot: AR.Drone 2.0 fliegt höher, genauer und sendet in HD   
(09.01.2012, https://glm.io/88902 )
Tensorflow: Das US-Militär nutzt KI-Systeme von Google   
(07.03.2018, https://glm.io/133194 )
US Air Force: Biegbares Arduino-Board für die Uniform oder den Jetflügel   
(12.02.2018, https://glm.io/132721 )
Microsoft: Herstellungsende für Kinect-Adapter verkündet   
(03.01.2018, https://glm.io/131937 )
Fly Elephant: Der 3D-Drucker fliegt   
(02.03.2018, https://glm.io/133115 )

© 1997–2019 Golem.de, https://www.golem.de/