Zum Hauptinhalt Zur Navigation

Autonomes Fahren: Was Elon Musk auf dem Radar haben sollte

Außer Tesla setzen fast alle Autohersteller auf Radarsysteme beim autonomen Fahren . Die Sensortechnik ist noch lange nicht ausgereizt.
/ Friedhelm Greis
114 Kommentare News folgen (öffnet im neuen Fenster)
Die Robotaxis von Hyundai verstecken ihre vielen Radarsensoren nicht. (Bild: Friedhelm Greis/Golem.de)
Die Robotaxis von Hyundai verstecken ihre vielen Radarsensoren nicht. Bild: Friedhelm Greis/Golem.de

Wie viele Sensorsysteme braucht ein selbstfahrendes Auto? Während der Elektroautohersteller Tesla auf reine Kameraerkennung ( "Pure Vision" ) setzt, stopfen andere Anbieter wie Hyundai, VW oder Waymo ihre Testautos zusätzlich mit Radarsensoren und Laserscannern voll. Vor allem Teslas kompletter Verzicht auf Radarsensoren überraschte die Branche . Dabei ist die Technik trotz ihres jahrzehntelangen Einsatzes in Autos alles andere als ausgereizt. Im neuen BMW iX soll erstmals ein sogenannter 4D-Radar mit höherer Auflösung zum Einsatz kommen.

Für Fahrassistenzsysteme wie den Abstandsregeltempomaten sind Radarsensoren seit rund 20 Jahren im Gebrauch. Sie haben den Vorteil, dass sie wegen des Doppler-Effekts unmittelbar die Geschwindigkeit der detektierten Objekte messen können. Auch Entfernungen und Beschleunigungen beziehungsweise Verzögerungen lassen sich damit ermitteln. Zudem liefert Radar bei schlechten Wetterbedingungen wie Schnee, Nebel und Regen sowie bei Dunkelheit und Gegenlicht zuverlässige Aufnahmen.

Musk hält Radar-Auflösung für zu niedrig

Ein weiterer Vorteil für die Autohersteller: Anders als Kameras und Laserscanner lassen sich Radarsensoren gut in die Karosserie integrieren. Verkleidungen, wie am Kotflügel oder am Kühlergrill, dürfen vom Material und der Dicke her die Signale möglichst wenig dämpfen oder reflektieren. Selbst die Dicke und Beschaffenheit des Lacks muss dazu berücksichtigt werden.

Trotz dieser Vorteile glaubt Tesla-Chef Elon Musk, auf die Daten von Radarsensoren verzichten zu können. Sein Argument(öffnet im neuen Fenster) : "Wenn Radar und Kameras nicht übereinstimmen, wem glaubt man dann? Kamerasysteme sind viel genauer, daher ist es besser, die Kameraerkennung zu verstärken als auf die Sensorfusion zu setzen." Die Auflösungen bei Kameras seien um ein Vielfaches größer als bei Radar und Lidaren. Da die Bildverarbeitung bei Kameras besser werde, bleibe das Radar weit zurück.

Auflösung bislang nur bei fünf Grad

Doch trifft das wirklich zu? In der Tat ist die Auflösung bei Radarsystemen deutlich niedriger als bei Kameras. Nach Angaben des Halbleiterherstellers Infineon liegt die Auflösung bei Radarsystemen der Automatisierungsstufen 1 und 2 bei etwa fünf Grad. Unter Auflösung(öffnet im neuen Fenster) wird in der Radartechnik dabei die Fähigkeit verstanden, gleich entfernte Ziele noch trennen zu können (Target Separability).

Weil ein Radar nicht wie eine Kamera oder ein Lidar die Umgebung "scannt", sondern nachrechnet, sprechen die Entwickler nicht von "horizontalen Zeilen" , sondern Schichten oder Layers. Bei einem Radar mit einem Öffnungswinkel von 120 x 30 Grad und einer angestrebten Auflösung von 1 Grad ergäben sich so theoretisch 3.600 Radarstrahlen (beams), mit denen Objekte unterschiedlicher Geschwindigkeit detektiert werden könnten. Dabei könne auch mehr als ein Objekt per Strahl detektiert werden, so dass man bis maximal 5.000 Objekte berechnen könne.

Reklame

Autonomes Fahren und die Zukunft der Mobilität

Jetzt bestellen bei Amazon (öffnet im neuen Fenster)

Nach Einschätzung von Infineon begrenzt wahrscheinlich die Verarbeitungsfähigkeit des Mikrocontrollers die Anzahl der detektierten Objekte, so dass man realistisch auf 2.000 Detektionen statt 3.600 Detektionen (bei einem Objekt pro Strahl) kommen könne.

Tesla Model 3 - Test
Tesla Model 3 - Test (04:18)

Aktueller Stand der Technik im Automobilbereich ist nach Einschätzung des Fraunhofer-Instituts für Hochfrequenzphysik und Radartechnik (FHR)(öffnet im neuen Fenster) "die Kombination frequenzmodulierter Dauerstrichsignale (FMCW) zur Bestimmung der Entfernung und der radialen Geschwindigkeit mit einer Richtungsbestimmung anhand des Vergleichs der Empfangsphase mehrerer Empfangsantennen (digital beamforming)" .

Derzeit nur zwölf Kanäle üblich

Dazu würden meist separate Sende- und Empfangsantennen verwendet. Als Trägerfrequenzen kommen beispielsweise 24 GHz, 77 GHz oder 96 GHz zum Einsatz(öffnet im neuen Fenster) . Der chinesische Elektroautohersteller Nio kündigte zuletzt den Einsatz von Radarsensoren mit 5 mm Wellenlänge (60 GHz) an.

Laut Infineon werden für größere radiale Auflösungen und gleichzeitig gute Reichweiten steile und lange Frequenzrampen ( Chirp(öffnet im neuen Fenster) ) über 1 bis 2 GHz benötigt. Daher würden typischerweise Frequenzbereiche von 76 bis 81 GHz verwendet.

Während die Minimalkonfiguration aus einer Sendeantenne und zwei Empfangsantennen besteht, verfügen aktuelle Mittelbereichsradare nach Angaben des Zulieferers ZF(öffnet im neuen Fenster) typischerweise über drei Sender und vier Empfänger, was zwölf Kanäle ergibt. Neben der verfügbaren Antennenfläche bestimme die Zahl der Kanäle die Auflösung des Radars.

MIMO-Systeme sind die Zukunft

Auf Anfrage von Golem.de räumte Infineon-Entwickler Matthias Halsband ein, dass die bisherigen Radarsysteme hinsichtlich Reichweite und Auflösung noch nicht den Anforderungen des autonomen Fahrens genügten. "Hier stehen besonders Radarsensoren mit Auflösungen von weniger als 0,5 Grad im Fokus, was zu anderen Architekturen, höheren Datenraten und einem stärkeren Einsatz von Rechenleistung und KI-basierter Datenauswertung, vornehmlich auf zentralen Rechnerarchitekturen, führt" , sagte Halsband. Die Industrie arbeite "mit Hochdruck an Systemen mit einer hohen Anzahl von Sende- und Empfangskanälen, mit denen die Auflösung erhöht werden kann."

Um ein solches bildgebendes Radar ( "Imaging Radar" ) zu ermöglichen, setzen die Entwickler auf sogenannte MIMO-Systeme(öffnet im neuen Fenster) (Multiple Input Multiple Output), wie sie auch bei WLAN-Routern zum Einsatz kommen. Nach Angaben des FHR arbeiten die Radarhersteller bereits an MIMO-Systemen mit 12 Sende- und 16 Empfangsantennen.

Lokalisierung im dreidimensionalen Raum

ZF hat ein solches Radarsystem mit 192 Kanälen bereits angekündigt. Der israelische Anbieter Vayyar präsentierte im Mai 2021 sogar einen Radar-Chip mit einem Feld von 48 Antennen(öffnet im neuen Fenster) . Der chinesische Telekommunikationskonzern Huawei stellte im April 2021 ein sogenanntes 4D-Bildgebungsradar mit einem Großantennenarray vor(öffnet im neuen Fenster) , das über 12 Sende- und 24 Empfangsantennen (12T24R) verfügt. Das entspricht 288 Kanälen.

Reklame

Autonomes Fahren und die Zukunft der Mobilität

Jetzt bestellen bei Amazon (öffnet im neuen Fenster)

Solche Radarsysteme sind in der Lage, Objekte nicht nur auf einer zweidimensionalen Ebene, sondern auch im dreidimensionalen Raum zu lokalisieren. Dies wird als 4D-Imaging bezeichnet, da der Radarsensor auch die Geschwindigkeit des Objekts als vierte Dimension (Zeit) erfasst. Dazu verfüge der Sensor über "zusätzlich mehrere versetzte Antennen in der Elevation und kann so Detektionen im Höhenwinkel trennen" , erläutert der Radarhersteller Innosent(öffnet im neuen Fenster) .

Mehrere tausend Datenpunkte pro Messzyklus möglich

Nach Angaben von ZF können solche Sensoren mit 192 oder mehr Kanälen "mehrere Tausend Datenpunkte pro Messzyklus" erfassen, während es bei bisherigen Sensoren nur wenige Hundert seien. Der Vorteil: "Selbst wenn sich gleich weit entfernte Gegenstände mit der gleichen Relativgeschwindigkeit bewegen, bildet sie unsere hochauflösende Technologie voneinander getrennt ab. So kann das Fahrzeug beispielsweise ein Stauende auch unter einer Brücke frühzeitig erkennen und entsprechend abbremsen."

Zudem ist es mit solchen Radarsystemen möglich, Objekte besser zu klassifizieren. Von einem Fußgänger empfange der Sensor ungefähr zehn Datenpunkte anstatt wie bislang nur ein oder zwei. "So kann er Menschen besser von statischen Gegenständen wie beispielsweise Büschen unterscheiden" , schreibt ZF. Über die Geschwindigkeit der Messpunkte ließen sich sogar einzelne Gliedmaßen in ihrer Bewegung auflösen. Dadurch könne der Sensor erkennen, in welche Richtung Fußgänger sich bewegten.

Störende Interferenzen

Neben der bislang geringen Auflösung gibt es noch einen weiteren Kritikpunkt an aktiven Sensoren wie Lidar oder Radar: Deren Einsatz in immer mehr Fahrzeugen kann dazu führen, dass sich die ausgestrahlten Signale gegenseitig stören. Nach Einschätzung von Infineon-Entwickler Halsband "ist die Frage noch offen, bis zu welchem Ausmaß sich Radarsysteme gegenseitig stören können, wenn die Anzahl der Module im Straßenverkehr steigt" .

Alle Hersteller arbeiteten jedoch an Strategien, die Radarsignale anderer Module zu detektieren und in ihrem Einfluss eliminieren zu können. "Dies geschieht im Wesentlichen durch zusätzliche Algorithmen in der Signalverarbeitung" , sagte Halsband. Auch Infineon arbeite an solchen Algorithmen zur Interferenzabschwächung (Interference Mitigation) und werde diese Funktionen in der nächsten Generation von Microcontrollern einsetzen.

Reklame

Autonomes Fahren und die Zukunft der Mobilität

Jetzt bestellen bei Amazon (öffnet im neuen Fenster)

Sensorfusion von Kameras und Radar

Auch Bosch hält solche Interferenzen für möglich. "Wie bei allen funkgestützten Methoden können dabei theoretisch gegenseitige Störungen auftreten, was sich aber durch regulatorische Lösungen, technische Funktionen in jedem Sensor sowie im Fahrzeug minimieren lässt" , teilte der Automobilzulieferer auf Anfrage von Golem.de mit.

Angesichts der aktuellen Entwicklungen bei der Sensortechnik ist es nachvollziehbar, dass die meisten Autohersteller sich im Gegensatz zu Tesla beim autonomen Fahren nicht nur auf Kameras verlassen wollen. So sagte ein Sprecher des Autoherstellers Mercedes-Benz auf Anfrage von Golem.de: "Bereits heute in Level-2-Systemen vertrauen wir auf die Fusion von Radar- und Kameradaten. Dabei legen wir Wert auf größtmögliche Sicherheit bei höchstem Komfort, die sich auch in unserem Sensorsetup widerspiegelt. Die Sensorarten ergänzen sich komplementär in ihren physikalischen Messprinzipien."

Mercedes-Benz und BMW setzen auf Redundanz

Das gelte auch für den geplanten Staupiloten (Drive Pilot) nach Automatisierungsstufe 3 , den das Unternehmen noch in diesem Jahr in der S-Klasse und im kommenden Jahr im vollelektrischen EQS auf den Markt bringen will. Falls beispielsweise die Stereokamera durch eine tiefstehende Sonne geblendet werde, könnten Radar und Lidar den Ausfall für eine vorgegebene Zeit kompensieren. Dann könne das System die Fahraufgabe an den Fahrer übergeben.

Zudem müsse mit dem Ausfall eines Sensors, beispielsweise durch Verschmutzung oder Steinschlag, gerechnet werden. "Die Fokussierung auf nur ein Sensorkonzept entspricht daher auf Basis des aktuellen technischen Fortschritts nicht unserer Sicherheitsphilosophie für ein in Kürze im Serieneinsatz geplantes Level-3-System" , sagte der Sprecher.

Erstmals 4D-Radar beim BMW iX

Ähnlich äußerte sich BMW. "Beim BMW iX erfassen fünf Kameras, fünf Radar- und zwölf Ultraschallsensoren das Fahrzeugumfeld. Wir setzen bei der Fahrzeugsensorik bewusst auf eine gezielte Kombination unterschiedlicher Technologien, die sich mit ihren spezifischen Fähigkeiten und Stärken ideal ergänzen, um ein differenziertes und zuverlässiges Bild von der Fahrzeugumgebung zu erstellen. Sicherheit ist für uns immer das oberste Ziel" , sagte Entwicklungschef Frank Weber auf Anfrage von Golem.de.

Weber verwies darauf, dass beim iX weltweit erstmalig ein 4D-Radar in einem Auto zum Einsatz komme. BMW will jedoch vor der Markteinführung des iX den Lieferanten des Sensors sowie weitere Details nicht nennen.

Drive Pilot der S-Klasse ausprobiert
Drive Pilot der S-Klasse ausprobiert (03:22)

Ist Tesla mit seinem Radarverzicht auf einem Holzweg oder einem erfolgreichen Sonderweg? Zumindest haben erste Tests beim Model 3 und Model Y ergeben, dass Sicherheitsfunktionen wie das Kollisionswarnsystem (Forward Collision Warning, FCW) und der Notbremsassistent (Automatic Emergency Braking, AEB) dadurch nicht beeinträchtigt werden .

Doch die Anforderungen an autonome Autos, bei denen Fahrer nicht mehr das Fahrgeschehen überwachen müssen, sind deutlich höher. Vielleicht lässt sich Musk doch noch überzeugen, anstelle teurer Lidar-Systeme künftig verbesserte 4D-Radare einzubauen.

Reklame

Autonomes Fahren und die Zukunft der Mobilität

Jetzt bestellen bei Amazon (öffnet im neuen Fenster)

Nachtrag vom 11. Oktober 2021, 11:35 Uhr

BMW hat inzwischen auf Nachfrage von Golem.de Details zum eingesetzten Fernbereichsradar ergänzt. Das Radar hat demnach 12 Sende- und 16 Empfangskanäle. "Das ergibt 192 virtuelle Kanäle, die uns eine hohe Winkeltrennfähigkeit in Azimut und Elevation ermöglichen" , sagte ein Sprecher. Für eine hohe Distanztrennfähigkeit werde eine Bandbreite von 1 GHz in jedem Messzyklus von 50 ms ausgewertet, auch für Ziele, die sich noch in 300 m Entfernung befänden.


Relevante Themen