• IT-Karriere:
  • Services:

Fusion der Sensordaten recht langsam

Doch nicht nur die Klassifikation der Daten ist aufwendig. Schließlich müssen die Verkehrssituationen erst einmal in der Realität mit den unterschiedlichen Sensortypen aufgenommen werden. Einen deutlichen Vorteil hat in diesem Fall der Elektroautohersteller Tesla. Dieser kann bei Bedarf von den Autos seiner Kunden die erforderlichen Aufnahmen abrufen und analysieren. Eine solch große Flotte an unfreiwilligen Testfahrern haben Daimler und Bosch jedoch nicht zur Verfügung.

Stellenmarkt
  1. Technische Universität Berlin, Berlin
  2. über eTec Consult GmbH, Dreieck Frankfurt - Darmstadt - Hanau

Sind die neuronalen Netze entsprechend angelernt worden, können sie beliebige Verkehrssituationen auswerten. Die semantischen Aufnahmen der Sensortypen werden dann an die sogenannte Sensordatenfusion weitergeleitet, die ein kohärentes Umgebungsbild erzeugen soll. Hier können sich die Daten gegenseitig plausibilisieren. Dabei gibt es keinen Sensortyp, der gegenüber den anderen Vorrang hat.

Alle 100 Millisekunden ein Umgebungsbild

Neben den Daten hochpräziser 3D-Karten fließen noch Mikrofonaufnahmen, Ultraschallsensoren sowie die Daten zur Bewegung und Lokalisierung des Fahrzeugs in die Fusion ein. Hierbei ist entscheidend, die unterschiedlichen Aufnahme- und Auswertungsfrequenzen der einzelnen Sensoren zu synchronisieren. Den Entwicklern zufolge ist das System in der Lage, alle 100 Millisekunden ein fusioniertes Umgebungsbild zu erzeugen.

Das erscheint lange, denn die Sensoren arbeiten durchaus mit höheren Frequenzen als zehn Hertz. Selbst im städtischen Verkehr kann ein Auto in diesem Zeitraum die Strecke von mehr als einem Meter zurücklegen, auf der Autobahn wären es sogar mehrere Meter. Vor diesem Hintergrund erscheint es wenig nachvollziehbar, warum die Industrie Latenzzeiten von einer Millisekunde beim neuen Mobilfunkstandard 5G fordert, um möglichst schnell Daten zwischen Autos oder zwischen Auto und Infrastruktur übertragen zu können. Zumal beim aktuellen Sensorkonzept die vernetzte Kommunikation nicht einbezogen wird. Selbst die hochpräzise Karte spielt für die Entwickler nur eine untergeordnete Rolle.

Vorsicht bei unbekannten Objekten

Trotz aller Fortschritte: Bestimmte Einschränkungen bleiben weiterhin bestehen. So soll das System zwar in der Lage sein, ungewöhnliche Objekte auf der Fahrbahn zu erkennen und als Gefahrenquelle zu identifizieren. Franke hat sich eigens einen Stoffhund gekauft, um seine Systeme zu testen. Doch das autonome Auto wird wohl noch nicht entscheiden können, über eine leere Plastiktüte auf der Straße zu fahren. Ein Mensch könnte hingegen aufgrund seiner Erfahrung eher einschätzen, ob ein solches Objekt gefahrlos überfahren werden kann oder ob man ihm besser ausweichen sollte.

Zudem ist ein Mensch in der Lage, ein Objekt auch dann richtig zu erkennen, wenn er es vorher noch nie im Straßenverkehr gesehen hat. Und das in der Regel völlig unabhängig davon, ob eine Kuh auf der Autobahn steht oder, was wahrscheinlicher ist, auf einem Feldweg. Egal wie viele Studenten auch Bilder labeln: Früher oder später dürfte das autonome Auto von einer Situation überfordert und auf einen entfernten Aufpasser angewiesen sein. Solange das nicht so häufig passiert, wie Google Translate falsch übersetzt, könnte die neue Technik dennoch erfolgreich funktionieren.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
 Mühsame Klassifizierung von Objekten
  1.  
  2. 1
  3. 2
  4. 3


Anzeige
Spiele-Angebote
  1. 31,99€
  2. 23,99€

PiranhA 23. Jul 2018

Das reicht doch für den Anfang schon mal. Ein Auto verlässt sich ja auch nicht alleine...

FreierLukas 21. Jul 2018

Denkt einfach immer an die bevorstehende Singularität. Ein Mensch brauch ewig um sich zu...

s33 21. Jul 2018

Ne, das stimmt schon so. Oliveeer meint wahrscheinlich die Einträge der Kovarianzmatrix...


Folgen Sie uns
       


    •  /