Original-URL des Artikels: https://www.golem.de/news/neue-bedienungssysteme-im-auto-es-kribbelt-in-den-fingern-1701-125546.html    Veröffentlicht: 17.01.2017 12:01    Kurz-URL: https://glm.io/125546

Neue Bedienungssysteme im Auto

Es kribbelt in den Fingern

Was machen die Autofahrer eigentlich, wenn die Autos irgendwann selbst fahren? BMW, VW und Bosch haben schon einige Ideen entwickelt, die sich Golem.de in Las Vegas auf der Straße und im Modell angeschaut hat.

Wenn man Umfragen Glauben schenken darf, würden sich die meisten Autofahrer in ihren selbstfahrenden Autos am liebsten entspannen oder aus dem Fenster schauen. Das ist Providern, Anbietern von Inhalten und den Autoherstellern allerdings zu wenig. Was man mit einem automatisierten und vernetzten Auto so alles machen könnte, zeigten BMW, Bosch und VW in diesem Jahr auf der Elektronikmesse CES. Wenn es um die Schnittstelle zwischen Maschine und Mensch geht (Human Machine Interface/HMI), dürfen sich die Entwickler inzwischen so richtig austoben.

Das Problem ist jedoch: Die völlig selbstfahrenden Autos ohne Lenkrad und Pedale wird es vielleicht erst in 10 bis 15 Jahren geben. Bis dahin ist "Mischverkehr" angesagt. Auf der Autobahn oder im Stau übernimmt der Computer zeitweise die Kontrolle, wenn der Fahrer dies wünscht. In vielen Situationen muss er jedoch noch selbst lenken. Zudem muss er erst einmal Vertrauen in die fahrerischen Fähigkeiten seines Autos gewinnen.

Smartphone-Nutzung im Auto gefährlich

Die gute Bedienbarkeit von vernetzten Funktionen ist daher alles andere als technische Spielerei oder Schnickschnack. Vor allem die Nutzung von Smartphones stellt nach Angaben des US-amerikanischen National Safety Council ein großes Sicherheitsrisiko dar - selbst bei Telefonaten über eine Freisprecheinrichtung. Je mehr Funktionen die Autohersteller in ihre vernetzten Autos hineinpacken, desto wichtiger ist es, ihre Bedienung möglichst einfach zu gestalten. Das vernetzte Fahren macht den Verkehr sonst nicht sicherer, wie oft propagiert wird, sondern eher gefährlicher.

Die Grundsatzfrage lautet dabei: Bringt man die Onlinefunktionen in das bordeigene System oder integriert man das Smartphone des Fahrers ins Auto? Für Letzteres riefen die Autohersteller Ford und Toyota auf der CES das Smart-Device-Link-Konsortium (SDL) ins Leben. Diese Organisation soll Open-Source-Software für die Entwicklung von Apps verwalten, die im Auto genutzt werden können. Die Bedienungsoberfläche von Apps kann damit beispielsweise im Armaturenbrett des Autos gespiegelt, die Apps selbst können über Steuertasten am Lenkrad oder per Sprachsteuerung bedient werden.

BMW vernetzt Daten in Open Mobility Cloud

Oberklassehersteller nutzen für vernetzte Dienste natürlich lieber die bordeigenen Displays. Der von Tesla verwendete 17-Zoll-Touchscreen hat uns bei einem Test durchaus überzeugt. BMW präsentierte auf der CES in Las Vegas nun, wie sich die vernetzten Dienste mit verschiedenen Eingabemethoden bedienen lassen. Dazu war Golem.de eine Stunde lang mit einem 5er BMW in Las Vegas und auf der Interstate 40 unterwegs. Dabei fuhr das Auto auf der Autobahn auf der Basis hochpräziser Karten im automatisierten Modus ohne Freihanderkennung. Allerdings nur zu Demonstrationszwecken. Denn der neue 5er verfügt noch nicht über die entsprechenden Funktionen.

BMW möchte den Fahrern automatisierter Autos über das von Golem.de bereits im vergangenen August beschriebene Connected Drive viele Informationen bereitstellen und sie mit Diensten verknüpfen, die sie beispielsweise im Büro oder zu Hause nutzen. Über die Server im Backend stehen die entsprechenden Daten sowohl dem Auto als auch den eigenen Endgeräten wie Smartphones und Tablets zur Verfügung. Das geht inzwischen schon so weit, dass der Terminplaner per Amazon Alexa den Nutzer darauf hinweist, wegen des starken Verkehrs doch etwas früher zum geplanten Termin aufzubrechen.

Cortana und Alexa wandern ins Auto

Die vernetzten Funktionen stellt BMW im Auto auf einem schmalen 10,25-Zoll-Touchscreen über der Mittelkonsole dar, dem sogenannten Live Pad. Dazu gehört beispielsweise das Navigationssystem, das auf den Daten des Kartendienstes Here basiert. Dort wird der Straßenzustand nahezu in Echtzeit angezeigt, so wie es bei Google Maps ebenfalls schon möglich ist. Neu ist dabei die realistische Darstellung der Gebäude, was die Orientierung erleichtert. Darüber hinaus lässt sich das System noch als eine Art fahrendes Wikipedia nutzen. So zeigt der Bildschirm während der Fahrt auf der Interstate an, welche besonderen Hotels und Golfplätze rechts und links der Straße zu finden sind. Der beschäftigungslose Fahrer will schließlich unterhalten werden.

Um die Informationen abzurufen, hat BMW den 5er mit einer Gestensteuerung ausgestattet. Das ist zum einen gerade bei VR und Spielekonsolen sehr modern, dient aber auch einen Sicherheitsaspekt. Die Hersteller wollen verhindern, dass der Fahrer durch das ständige Vorbeugen und Tippen auf den Touchscreen und anderen Bedienungsknöpfen zu sehr vom Fahren abgelenkt wird. Mit wenigen Gesten wie nach rechts und links ausgestreckten Daumen, einer Wischbewegung und einem Fingerzeig lassen sich einzelne Funktionen auf dem Bildschirm aktivieren.

Spracherkennung der IT-Konzerne funktioniert besser

Die Spracherkennung ist etwas gewöhnungsbedürftig und hat im Test nicht bei direkter Sonneneinstrahlung funktioniert. Zudem muss man über der Mittelkonsole recht genau die Position finden, bei der die Gesten von der Kamera erkannt werden. Wenn es klappt, lässt sich aber beispielsweise die akustische Wiedergabe von Informationen aktivieren oder die Lautstärke regeln.

Zudem hat BMW den Spracherkennungsdienst Cortana von Microsoft integriert. Spracherkennung in Fahrzeugen gibt es schon ziemlich lange. Das Problem: Sie funktionierten ziemlich schlecht, da die Autos nicht über genügend Rechenleistung für die Sprachanalyse verfügten, berichtete jüngst die New York Times. Vernetzte Autos können aber auf die Ressourcen der großen IT-Konzerne zurückgreifen. Daher kündigten auch Ford und VW auf der CES die Einbindung von Amazons Alexa an. Dazu ist natürlich eine permanente Onlineverbindung erforderlich.

Konspiratives Liefertreffen mit Amazon

Über einen Schalter am Lenkrad wird ein Mikrofon eingeschaltet, um Cortana herbeizurufen. Dann sucht der Sprachassistent während der Fahrt nach einem Restaurant für einen bereits in der Cloud abgespeicherten Termin. Cortana erkannte die Anweisung problemlos, sogar trotz des deutschen Akzents im Englischen. In der Demo war es dann auch kein Problem, sofort einen Tisch zu reservieren. Ob das in der Realität tatsächlich so problemlos funktioniert, dürfte fraglich sein. Aber in der schönen neuen Autowelt ist eben schon alles miteinander vernetzt.

Als weiteres Beispiel dafür hat BMW seine Cloud mit den Lieferdiensten von Amazon verbunden. Wird während des Fahrens ein Produkt über Amazon Prime Now bestellt, schlägt das System gleich einen Ort vor, um das Paket unterwegs per En-Route-Delivery abzuholen. Dazu wurde in Las Vegas zu Demonstrationszwecken mit einem Amazon-Lieferfahrzeug ein Treffpunkt vereinbart, der auf der Route lag.

Eyetracking, Ultraschallraum und 3D-Display

Auch der Zulieferer Bosch präsentierte auf der CES ein Konzeptfahrzeug, in das verschiedene Interaktionstechniken integriert sind. Diese sollen dem Fahrer Zugriff auf Befehle geben, ohne ihn zu stark abzulenken. Dazu gehört ebenfalls eine Gestensteuerung. Bosch setzt dabei jedoch eine gemeinsam mit dem britischen Startup Ultrahaptics entwickelte Ultraschalltechnik ein. Die Ultraschallsender definieren über der Mittelkonsole einen Raum, in dem die Gesten durch die Kamera am besten erkannt werden. In den Fingern macht sich das durch ein leichtes Kribbeln bemerkbar. Zudem erhält der Fahrer eine haptische Rückmeldung zur ausgeführten Geste. Damit lässt sich diese Art der Steuerung durchaus besser nutzen.

Doch damit nicht genug: Das Konzeptauto verfügt über eine Kamera, die den Fahrer erkennt und überwacht. Dies nutzt Bosch, um nach dem Einsteigen die persönlichen Vorlieben des Fahrers einzustellen: beispielsweise Lenkrad, Spiegel, Temperatur und Radiosender. Während der Fahrt überwacht das Auto per Kamera, ob der Fahrer noch in der Lage ist, die Kontrolle zu übernehmen. Dies muss auch beim hochautomatisierten Fahren noch innerhalb einer gewissen Zeit möglich sein. Im sogenannten normalen Modus sollten dem Fahrer ohnehin nicht die Lider zu schwer werden.

Küchenhelfer ins Auto integriert

Ist der Fahrer aber wach und bewegt seine Augen, kann er damit bei bestimmten Anwendungen im Display des Armaturenbretts navigieren und beispielsweise zwischen verschiedenen Optionen wählen. Zudem verfügt das Konzeptfahrzeug über einen Touchscreen in der Mittelkonsole, der ein haptisches Feedback gibt.

Ebenso wie BMW hat auch Bosch das Auto mit Diensten vernetzt, die der Fahrer aus seiner smarten Wohnung kennen könnte. So lässt sich auf dem Monitor über der Mittelkonsole nachsehen, wie voll der Kühlschrank noch ist. Wenn Lebensmittel fehlen, lassen sie sich gleich über einen Bestelldienst vom Auto aus nach Hause liefern.

Ist der Fahrer nicht doch überfordert?

Diese ganzen Konzepte von Bosch und BMW wirken alle sehr schick. Doch am Ende stellt sich die Frage, ob der Fahrer mit den vielen Bildschirmen, Sprachbefehlen, Gesten, Knöpfen und Augenbewegungen nicht doch überfordert ist. Das Dilemma des vernetzten Fahrens wird dadurch nicht aufgehoben: Solange die Autos noch nicht automatisiert fahren, lenkt die Nutzung der vielen Internetdienste fast immer vom Fahren ab.

Bei hochautomatisierten Autos kann der Fahrer jedoch das machen, was er beispielsweise in der U-Bahn macht: sich mit seinem Handy beschäftigen. Das sieht auch Christian Reinhard vom Autosoftwarehersteller Elektrobit in Erlangen so. "Dadurch, dass ich durch die Fahraufgabe oft beschäftigt bin, brauche ich eine gewisse Reduktion der Ablenkung. Wenn das Fahrzeug autonom fährt, fällt das eigentlich alles weg", sagte er auf der CES im Gespräch mit Golem.de. Selbst die Klimaanlage lasse sich über das Smartphone steuern. So wie es bei der Tesla-App schon möglich ist.

Augmented Reality und Hologramme

Neuartige Benutzerschnittstellen sollen jedoch nicht nur die Bedienung des Autos, sondern auch die Akzeptanz des automatisierten Fahrens erleichtern. Reinhard verweist in diesem Zusammenhang auf neuartige Head-up-Displays (HUD) von Elektrobits Konzernmutter Continental, die der Automobilzulieferer bereits 2014 vorgestellt hat. Diese nutzen Augmented Reality (AR), um dem Fahrer zusätzliche Informationen in die Windschutzscheibe einzublenden.

Die vom Sensorsystem erkannten Fahrbahnmarkierungen oder Fahrzeuge sollen nicht nur im Armaturendisplay, wie derzeit beim Tesla oder der Mercedes E-Klasse, sondern vor die Windschutzscheibe projiziert werden. Reinhard rechnet damit, dass ein solches AR-HUD in zwei Jahren auf den Markt kommen könnte. Allerdings nur bei größeren Geräten. Die Herausforderung bei dieser Art von AR besteht laut Reinhard darin, dass die projizierten Objekte mit den realen sehr genau übereinstimmen müssen, da sonst der Fahrer wohl eher irritiert werden dürfte.

VW mit Eyetracking und 3D-Bildschirm

Dass AR-Head-up-Displays auch den Weg in Mittelklasseautos finden werden, zeigte VW auf der CES. Allerdings geht es Volkswagen nur darum, zusätzliche Informationen zur Navigation oder den Abstand zum vorausfahrenden Fahrzeug darzustellen. Auf einer zweiten Ebene, die dichter vor den Fahrer projiziert wird, erscheinen Anzeigen zum Infotainment.

Ebenso wie Bosch zeigte auch VW eine Bedienung auf Basis von Eyetracking. Zudem präsentierte das Unternehmen ein sogenanntes 3D Active Info Display. Zwei hintereinander angeordnete Bildschirme sollen für einen "faszinierenden Tiefeneindruck sowie eine exzellente Bildqualität" sorgen.

Mittelkonsole durch Hologramm ersetzt

Einen richtig weiten Blick in die Zukunft des Autoinnenraums wagte jedoch BMW auf der CES. Die zusammen mit den Partnern Intel und Mobileye vorgestellte Studie BMW i Inside Future hat zwar immer noch ein Lenkrad, aber ansonsten nur noch wenig mit einem herkömmlichen Fahrzeug gemein. Um den Insassen während der Fahrt ein Wohnzimmererlebnis zu ermöglichen, ist der Raum vor dem Beifahrer weit nach vorne gerückt. Das dürfte bei Elektroautos kein Problem sein, da der Motorblock wegfällt.



Damit die Mittelkonsole nicht den Blick auf den großen Monitor unter der Windschutzscheibe stört, hat BMW sie einfach abgeschafft. Durch die weite Entfernung vom Fahrer ist der Monitor aber für den Fahrer unerreichbar. Um eine Nutzung ohne Fernbedienung, Laserpointer oder Zeigestock zu ermöglichen, hat BMW das bereits im November 2016 angekündigte Bedienfeld Holoactive Touch entwickelt. Eine Kombination aus holografischer Anzeige mit einer Ultraschallquelle, die Eingaben mit dem Finger registriert. Das hat bei der Präsentation für Golem.de auf der CES gut funktioniert.

Akustische Isolierung

Das Hologramm wird mit einem LCD-Bildschirm erzeugt und mit Hilfe von Mikrospiegeln rechts neben den Fahrer projiziert. Eine 3D-Kamera neben dem Lenkrad erkennt Gesten. Ultraschallsender geben eine haptische Rückmeldung. So ist es beispielsweise möglich, holografisch projizierte Knöpfe zu bedienen. Der Vorteil der holografischen Projektion besteht darin, dass der Fahrer genau sieht, wohin er "drücken" muss.

Der autonome BMW der Zukunft ist dabei schon so schlau, dass er anhand der berechneten Fahrzeit vorschlägt, welchen Film sich der Fahrer anschauen könnte. Darüber hinaus verfügt die Innenraumstudie über getrennte akustische Zonen für Fahrer und Beifahrer. Lautsprecher in den Kopfstützen ermöglichen es, dass beide unterschiedliche Musik hören. Zwischen ihnen gibt es eine Art akustische Isolierung.

Auto noch lange kein zweites Büro

Der Fahrer soll sogar einen Videogespräch führen können, ohne dass der Beifahrer weiß, mit wem. Dazu wird der Gesprächspartner im Hologramm dargestellt, das für den Beifahrer nicht erkennbar ist. Die Passagiere auf dem Rücksitz können sich über große Monitore freuen, die von der Decke herunterklappen. Das ist genau das, was sich Eltern für lange Fahrten mit ihren Kindern wünschen.

Trotz aller futuristischen Studien: Das Auto ist noch lange kein zweites Büro oder Wohnzimmer. Zumindest für den Fahrer. Selbst wenn ein Sprachassistent wie Cortana und Alexa die Anweisungen auf Anhieb versteht: Man blickt unwillkürlich auf das Display, um die Richtigkeit der Eingabe zu überprüfen. Auch bei der Gestensteuerung ist die Ablenkung am Ende recht groß. Sinnvoll erscheint hingegen ein großer, gut erreichbarer Touchscreen in Verbindung mit einem Head-up-Display für die Navigation. Es ist sicher kein Zufall, dass Bosch in einer VR-Präsentation auf der CES ein automatisiertes Auto mit solch einem großen Bildschirm in der Mittelkonsole ausgestattet hat. Warum umständlich gestikulieren, wenn man einfach drauf tatschen kann!  (fg)


Verwandte Artikel:
Passives Sicherheitssystem: Fiat Chrysler ruft Autos wegen Software-Fehler zurück   
(13.05.2017, https://glm.io/127804 )
Elektromobilität: Über die Hälfte der Neuwagen in Norwegen sind elektrifiziert   
(04.01.2018, https://glm.io/131963 )
Auto: Eine verunsicherte Branche   
(09.03.2018, https://glm.io/133225 )
Community based Parking: Mercedes S-Klasse liefert Daten für Boschs Parkplatzsuche   
(02.08.2017, https://glm.io/129274 )
Produktion in Spanien: Elektrischer Opel Corsa erst ab 2020 geplant   
(15.02.2018, https://glm.io/132782 )

© 1997–2019 Golem.de, https://www.golem.de/