Fliegenforschung für bessere Roboter

Wissenschaftler erforschen, wie das Gehirn einer Fliege Bilder verarbeitet

Münchner Wissenschaftler haben einer Fliege ins Gehirn geschaut, um herauszufinden, wie sie Bilder wahrnimmt. Sie hoffen, mit Hilfe ihrer Forschungsergebnisse bessere Bildverarbeitungssysteme für Roboter entwickeln zu können.

Anzeige

Die Evolution hat über Jahrmillionen in den verschiedensten Bereichen überaus effiziente Lösungen hervorgebracht. Wissenschaftler machen sich diese gern zunutze, wie etwa die zwei Wissenschaftler aus den USA, die einen Roboter nach dem Vorbild einer Fledermaus entwickelt haben. Wissenschaftler des Münchner Exzellenzclusters "Cognition for Technical Systems" (CoTeSys) haben sich der Schmeißfliege angenommen. Sie wollen sich von dem Insekt, das uns Menschen meist lästig fällt, die schnelle Verarbeitung von Bildern abschauen.

Eine Schmeißfliege hat ein Gehirn von der Größe eine Stecknadelkopfes - für die Bildauswertung reichen der Fliege 60 Nervenzellen pro Gehirnhälfte. Dennoch ist dieses Gehirn sehr leistungsfähig. So nimmt das Insekt in der Sekunde 100 Bilder als einzelne Sinneseindrücke wahr - zum Vergleich: Das menschliche Gehirn kann knapp über 20 Bilder pro Sekunde verarbeiten. Danach werden aus Einzelbildern Bewegungsabläufe. Die Fliege schafft es jedoch, die vielen Bilder zu verarbeiten und entsprechend ihre Flugmanöver zu steuern: in der Luft stehen, genau landen oder in Sekundenbruchteilen der Fliegenklatsche ausweichen.

Effiziente Bildverarbeitung

Dieser effizienten Informationsverarbeitung sind die Forscher um den Neurobiologen Alexander Borst auf den Grund gegangen. Dazu haben sie einen Flugsimulator für Insekten gebaut: Die Fliege wird an einer Halterung befestigt und bekommt Elektroden in ihr Gehirn eingesetzt. Vor ihr befindet sich ein halbrundes Display aus LED, auf dem Muster und Bewegungen angezeigt werden, die einen Flug simulieren sollen.

Dabei fanden die Forscher heraus, dass das Fliegenhirn Bilder ganz anders verarbeit als das menschliche Gehirn. Bewegungen im Raum erzeugen sogenannte "optische Flussfelder". Fliegt das Insekt beispielsweise geradeaus, fließen Gegenstände seitlich vorbei. Fliegt es hingegen auf einen Gegenstand zu, vergrößert dieser sich.

Aus Geschwindigkeit und Richtung der Bildpunkte erstellt das Gehirn ein Bild von Bewegungsvektoren, das Flussfeld. Die Flussfelder beider Augen werden dann von den sogenannten VS-Zellen zusammengeführt. Aus der Überlagerung der Bilder gewinnt die Fliege Informationen über ihre Position und ihre Bewegung.

Die Fliege als Vorbild für Roboter?

Die Wissenschaftler hoffen, dass die Erkenntnisse über die Bildverarbeitung der Fliege zu besseren Robotern führen werden. Eine effiziente Verarbeitung von Bildern ist etwas, mit dem Roboter heute immer noch Schwierigkeiten haben. Zwar liefern Kameras Bilder der Umwelt der Roboter. Doch deren Verarbeitung dauert immer noch recht lange. Zu lange etwa, um Menschen und Roboter gefahrlos gemeinsam in einem Raum agieren zu lassen. Hier könnten die Ergebnisse aus den Fliegenversuchen zu neuen Wegen führen.

Die bayrischen Wissenschaftler sind nicht die einzigen, die sich mit der Wahrnehmungsverarbeitung der Fliege beschäftigen: Im vergangenen Jahr haben Wissenschaftler vom Los Alamos National Laboratory in den USA einen Aufsatz über ihre Forschungen an einer Fliege veröffentlicht.


IT-Doktor 13. Jul 2009

Das ist genau das Problem des so genannten "gefährlichen Halbwissens". Da hat er mal...

Misdemeanor 13. Jul 2009

Dass ihr auf so einen Schwachsinn auch noch eingeht ... Verklagt doch Obama, weil er in...

Zaphod3000 12. Jul 2009

So richtig neu ist da Projekt nicht. Dennoch recht interessant, wie hoch die Wogen...

Greenpeace 12. Jul 2009

Mach einfach den Mund auf, schlauer bist wenn Du sie dann verschluckt hast...

VerliebtInVerena 12. Jul 2009

Ich hab neulich erst einen Beitrag bei 10 vor 11 gesehen in dem Dr. Prof Verena Hafner...

Kommentieren




Anzeige

  1. Application Developer .NET oder Java (m/w)
    IBS AG, Höhr-Grenzhausen bei Koblenz und Neu-Anspach bei Frankfurt am Main
  2. Quality Assurance Engineer / Test Manager (m/w)
    PAYBACK GmbH, München
  3. Softwareentwickler (m/w) für IT-Anwendungen
    TQ-Systems GmbH, Seefeld (Oberbayern)
  4. IT-Auditor Data Analytics (m/w)
    Fresenius SE & Co. KGaA, Bad Homburg

 

Detailsuche


Folgen Sie uns
       


  1. Sony-Sensor

    Baut Nikon eine eigene Mittelformatkamera?

  2. Adobe

    Lightroom 5.6 mit neuen Kamera- und Objektivprofilen

  3. Raumfahrt

    Nasa testet Schubdüse mit Mikrowellen

  4. Oculus Rift DK2 im Test

    Pixeldichte schlägt Pentile-Matrix

  5. Icann

    Länderdomains sind kein Eigentum

  6. LG

    Update soll Abschalt-Bug beim G3 beseitigen

  7. Square Enix

    Final Fantasy 14 zwei Wochen kostenlos

  8. Google und Linaro

    Android-Fork für Modulsmartphone Ara

  9. Wachstumsmarkt

    Amazon investiert 2 Milliarden US-Dollar

  10. Orbit

    Runtastic präsentiert neuen Fitness-Tracker



Haben wir etwas übersehen?

E-Mail an news@golem.de


Anzeige
Google: Youtube und der falsche Zeitstempel
Google
Youtube und der falsche Zeitstempel
  1. Spielevideos Google soll 1 Milliarde Dollar für Twitch.tv zahlen
  2. Videostreaming Youtube-Problem war ein Bug bei Google
  3. Videostreaming Telekom sieht Youtube-Problem erneut bei Google

Liebessimulation Love Plus: "Ich hoffe, du wirst für immer schön bleiben"
Liebessimulation Love Plus
"Ich hoffe, du wirst für immer schön bleiben"
  1. PES 2015 angespielt Neuer Ball auf frischem Rasen
  2. Metal Gear Solid - The Phantom Pain Krabbelnde Kisten und schwebende Schafe

LG 34UM95 im Test: Ultra-Widescreen-Monitor für 3K-Gaming
LG 34UM95 im Test
Ultra-Widescreen-Monitor für 3K-Gaming
  1. Free-Form Display Sharp zeigt LCD mit kurvigem Rahmen
  2. Eizo Foris FS2434 IPS-Display mit schmalem Rahmen für Spieler
  3. Philips 19DP6QJNS Klappmonitor mit zwei IPS-Displays

    •  / 
    Zum Artikel