Sprachsteuerung in Fahrzeugen: Wenn Autos verstehen lernen
Radio, Navigationsgerät und Smartphone: In vielen Fahrzeugen lassen sich diese Geräte mit der Stimme bedienen. Die Verbesserung der Spracherkennung ist für Entwickler eine Herausforderung.
Safety first: Die Bedienung von Geräten wie Smartphones und Navigationssystemen in Autos soll den Fahrer nicht ablenken. Die Hände gehören ans Lenkrad, die Augen auf die Straße. Deshalb setzen Autobauer auf die Sprachsteuerung. Zu erreichen, dass die Geräte auch alle Befehle des Fahrers erkennen, stellt Entwickler wie Philipp Wex vor Herausforderungen. Wex ist Senior Manager Advanced Engineering bei Daimler in Sindelfingen und beschäftigt sich mit natürlicher Spracherkennung.
- Sprachsteuerung in Fahrzeugen: Wenn Autos verstehen lernen
- Wenn der Fahrer zum Spracherkennungsprogramm wird
Wenn zum Beispiel Navigationsziele per Sprachanfrage gesucht werden, muss die Software erkennen, welche Wörter für die Suche bedeutend sind. Ein Beispiel: "Suche nach dem Restaurant Jägerklause in Berlin." Die Software sollte erkennen, dass das Wort "Suche" eine Aufforderung ist, dem Fahrer ein Ziel auf der Karte herauszusuchen und eine Routenbeschreibung anzuzeigen. Das Restaurant "Jägerklause" ist das Ziel und Berlin der Ort, in dem sich das Ziel befindet.
Heutige Spracherkennungssysteme in Fahrzeugen basieren laut Wex zum größten Teil noch auf Kommandos. Das bedeutet, der Fahrer muss genau die Worte sprechen, für die das System entwickelt worden ist. Zum Beispiel: "Suche Hauptstraße" oder "Rufe Mama an". Mit einer Abwandlung dieser Kommandos haben heutige Spracherkennungssysteme Schwierigkeiten. Sprachbefehle wie "Finde Hauptstraße" oder "Wähle Mamas Nummer" werden dann nicht erkannt.
Siri als Vorbild?
In anderen Bereichen und von anderen Herstellern gibt es natürliche Spracherkennung bereits. Apples Siri erkennt natürliche Sätze und kann bedeutende Worte heraussortieren. Trotzdem fiel Apples Spracherkennung in Fahrzeugen bei einem Test durch. Der Fahrer müsse oft genau die richtige Kommandoreihenfolge einhalten, damit er verstanden werde und Befehle ausgeführt werden könnten, heißt es in einer Studie.
Außerdem funktionieren diese Geräte nicht immer nahtlos: Wenn zum Beispiel einmal keine Verbindung zum Internet besteht, setzen sie oft aus. Auch die Spracherkennung in lauten Umgebungen ist problematisch, und eine Websuche als Ergebnis einer Sprachbedienung liefert oft nicht die gewünschten Ergebnisse.
Das Verstehen von Befehlen bei der Spracherkennung ist ein Problem, mit dem sich auch Wex beschäftigen muss. Besonders bei hohen Geschwindigkeiten muss die Spracherkennung Fahrgeräusche filtern können, um die Befehle des Fahrers zu verstehen. "Es gibt Geräusche wie die eines Blinkers oder Motorengeräusche, die können wir einordnen und filtern." Andere Geräusche wie Kindergeschrei im Innenraum eines Fahrzeugs oder mehrere Leute, die sich unterhalten, überforderten eine Sprachsteuerung heutzutage.
Die Lösung könnte laut Wex sein, dass Fahrer und Beifahrer eigene Mikrofone für die Sprachbedienung haben. Das Problem: Die Mikrofone müssten sich nah an Fahrer und Beifahrer befinden. "Wenn die Mikrofone irgendwo im Innenraum befestigt wären, müssten die Nebengeräusche trotzdem herausgefiltert werden."
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
| Wenn der Fahrer zum Spracherkennungsprogramm wird |
- 1
- 2









Was zur Zeit so an "Spracherkennung" für Autos herumgeistert kenne ich von meinem...
Genau das selbe dachte ich auch beim ersten Blick
DSP, FPGA, ASIC ? Meinst du so etwas?
wenn ich sagen kann "Fahr mich da und da hin" und das Auto es dann auch tut. Es gab doch...