Abo
  • Services:

Neuronale Netze: Wie Studenten autonome Autos schlau machen

Daimler und Bosch setzen bei ihren selbstfahrenden Autos auf künstliche Intelligenz. Doch das Trainieren der neuronalen Netzwerke ist mühselig und mit viel Handarbeit verbunden.

Ein Bericht von veröffentlicht am
Die Sensorsysteme müssen zwischen den verschiedenen Objekten im Straßenverkehr unterscheiden.
Die Sensorsysteme müssen zwischen den verschiedenen Objekten im Straßenverkehr unterscheiden. (Bild: Daimler)

Einer der vielen Mythen zur künstlichen Intelligenz besteht darin, dass die Systeme nur mit genügend Daten gefüttert werden müssen, um sie lernen zu lassen. "Der Google-Translator etwa übersetzt täglich maschinell circa 100 Milliarden Wörter und wird dadurch stetig trainiert und optimiert", sagte der CDU-Abgeordnete Hansjörg Durz Ende Juni 2018 im Bundestag. Doch so einfach ist es nicht. Ein Übersetzungsprogramm lernt nicht dadurch, dass es selbst übersetzt, sondern menschliche Übersetzungen analysiert. Auch beim autonomen Fahren ist viel Handarbeit erforderlich, um sichere Systeme zu entwickeln.

Inhalt:
  1. Neuronale Netze: Wie Studenten autonome Autos schlau machen
  2. Mühsame Klassifizierung von Objekten
  3. Fusion der Sensordaten recht langsam

Wie groß dieser Aufwand ist, merken derzeit der Automobilhersteller Daimler und der Zulieferer Bosch. Beide Firmen kündigten in der vergangenen Woche an, schon im kommenden Jahr im US-Bundesstaat Kalifornien einen selbstfahrenden Shuttle-Service zu testen. Wie sie diese Aufgabe meistern wollen, erläuterten Entwickler beider Unternehmen in dieser Woche im neuen Daimler-Testzentrum für autonomes Fahren im baden-württembergischen Immendingen. Neuronale Netze und schnelle Rechner spielen dabei eine entscheidende Rolle.

Hohe Rechenleistung erforderlich

Schon jetzt sind Mercedes-Modelle wie die S- und E-Klasse mit zahlreichen Sensoren und Assistenzsystemen ausgestattet. Doch diese Systeme reichen bei weitem nicht aus, wenn sich ein Auto fahrerlos in einem dichten Stadtverkehr bewegen will. Das Auto muss dann in der Lage sein, die Verkehrssituation vollständig zu erfassen, zu verstehen und die richtige Fahrentscheidung zu treffen. Tödliche Fehler, wie im Frühjahr bei der Kollision eines Uber-Testautos mit einer Fußgängerin, dürfen dann nicht passieren.

  • Mit Stereo-Kameras nimmt Daimler ein dreidimensionales Bild der Umgebung auf. (Bild: Daimler)
  • Neuronale Netze erkennen in den Aufnahmen die unterschiedlichen Objekttypen, wie Fußgänger, Fahrzeuge oder die Fahrbahn. (Bild: Daimler)
  • Fußgänger werden dann detailliert analysiert, um ihre mutmaßliche Bewegungsrichtung zu erkennen. (Bild: Daimler)
  • Entwickler Jascha Freess erläutert, wie sich das autonome Auto in einer belebten Straße orientiert. (Bild: Daimler)
  • Uwe Franke hat die Bilderkennung bei Daimler von Anfang an mit aufgebaut. (Bild: Friedhelm Greis/Golem.de)
  • Mit Hilfe neuronaler Netze lassen sich auch Lidar-Aufnahmen klassifizieren. (Bild: Friedhelm Greis/Golem.de)
  • Aus der 3D-Punktwolke wird eine Darstellung mit den unterschiedlichen Objekten. (Bild: Friedhelm Greis/Golem.de)
  • Die Sensorfusion führt die Daten zusammen und erzeugt ein kohärentes Umgebungsbild. (Bild: Daimler)
  • Auf der Teststrecke in Immendingen lassen die Entwickler die Autos selbstständig fahren. (Bild: Daimler)
  • Dabei müssen sie in der Lage sein, alle Fahrsituationen sicher zu beherrschen. (Bild: Daimler)
Mit Stereo-Kameras nimmt Daimler ein dreidimensionales Bild der Umgebung auf. (Bild: Daimler)

Daimler und Bosch entwickeln die erforderliche Hard- und Software weitgehend selbst. Das gilt sowohl für die Sensorauswertung und die Sensordatenfusion als auch für die Fahrwegplanung. Als Kooperationspartner für die schnelle Steuereinheit wurde - ebenfalls in der vergangenen Woche - der US-Chiphersteller Nvidia präsentiert. Auf dessen Plattform Drive PX Pegasus sollen die Billionen an Rechenoperationen in jeder Sekunde durchgeführt werden, die für das autonome Fahren erforderlich sind. Je mehr Schichten ein "tiefes" neuronales Netz hat, desto mehr Rechenleistung ist nötig.

Von Pixeln zu Stixeln

Stellenmarkt
  1. BIM Berliner Immobilienmanagement GmbH, Berlin
  2. OHB System AG, Bremen, Oberpfaffenhofen

Eine große Rechenleistung braucht es auch deswegen, weil die Kooperationspartner auf ein komplexes Sensorsystem mit Kamera, Lidar und Radar setzen. Vor allem die Kameras liefern viele Rohdaten, die nicht über den Fahrzeugbus zum Zentralrechner geschickt werden können. Um die Datenlast zu reduzieren, hat Daimler das sogenannte Stixel-Konzept entwickelt, mit dem das Bild von ein bis zwei Millionen Pixeln in wenige Hundert Stäbe (Sticks) reduziert wird. Die Stixel repräsentieren unterschiedliche Objekte im Verkehrsraum, beispielsweise Verkehrsteilnehmer, Fahrbahn, Straßenschilder, Bäume und andere Gegenstände.

Entscheidend für das autonome Fahren ist nun, dass das Fahrzeug diese Objekte richtig klassifizieren kann. Schon jetzt setze Daimler bei der automatischen Fußgängererkennung seiner Assistenzsysteme auf neuronale Netze, sagt Uwe Franke, Leiter der Abteilung Bildsemantik bei Daimler. Inzwischen verfügten die neu entwickelten Netze über 24 Millionen Neuronen mit 128 Millionen Gewichten, die an Millionen Bildern lernen könnten.

Mühsame Klassifizierung von Objekten 
  1. 1
  2. 2
  3. 3
  4.  


Anzeige
Hardware-Angebote
  1. 399€ (Vergleichspreis ab 467€)
  2. täglich neue Deals bei Alternate.de
  3. 1.299,00€

PiranhA 23. Jul 2018

Das reicht doch für den Anfang schon mal. Ein Auto verlässt sich ja auch nicht alleine...

FreierLukas 21. Jul 2018

Denkt einfach immer an die bevorstehende Singularität. Ein Mensch brauch ewig um sich zu...

s33 21. Jul 2018

Ne, das stimmt schon so. Oliveeer meint wahrscheinlich die Einträge der Kovarianzmatrix...


Folgen Sie uns
       


Oneplus 6T - Test

Das Oneplus 6T ist der Nachfolger des Oneplus 6 - und als T-Modell ein Hardware Refresh. Neu sind unter anderem ein größeres Display mit kleinerer Notch sowie der Fingerabdrucksensor unter dem Displayglas. Im Test hat das neue Modell einen guten Eindruck hinterlassen.

Oneplus 6T - Test Video aufrufen
Yuneec H520: 3D-Modell aus der Drohne
Yuneec H520
3D-Modell aus der Drohne

Multikopter werden zunehmend auch kommerziell verwendet. Vor allem machen die Drohnen Luftbilder und Inspektionsflüge und vermessen. Wir haben in der Praxis getestet, wie gut das mit dem Yuneec H520 funktioniert.
Von Dirk Koller


    Google Nachtsicht im Test: Starke Nachtaufnahmen mit dem Pixel
    Google Nachtsicht im Test
    Starke Nachtaufnahmen mit dem Pixel

    Gut einen Monat nach der Vorstellung der neuen Pixel-Smartphones hat Google die Kamerafunktion Nachtsicht vorgestellt. Mit dieser lassen sich tolle Nachtaufnahmen machen, die mit denen von Huaweis Nachtmodus vergleichbar sind - und dessen Qualität bei Selbstporträts deutlich übersteigt.
    Ein Test von Tobias Költzsch

    1. Pixel 3 Google patcht Probleme mit Speichermanagement
    2. Smartphone Google soll Pixel 3 Lite mit Kopfhörerbuchse planen
    3. Google Dem Pixel 3 XL wächst eine zweite Notch

    Need for Speed 3 Hot Pursuit (1998): El Nino, Polizeifunk und Lichtgewitter in Rot-Blau
    Need for Speed 3 Hot Pursuit (1998)
    El Nino, Polizeifunk und Lichtgewitter in Rot-Blau

    Golem retro_ Electronic Arts ist berühmt und berüchtigt für jährliche Updates und Neuveröffentlichungen. Was der Publisher aber 1998 für digitale Raser auffuhr, ist in puncto Dramatik bei Verfolgungsjagden bis heute unerreicht.
    Von Michael Wieczorek

    1. Playstation Classic im Test Sony schlampt, aber Rettung naht

      •  /