Zum Hauptinhalt Zur Navigation

Touch-Technik: mehr Intuition, weniger Funktion

2007 folgte dann mit dem iPhone die nächste Revolution. Touch-Displays gab es schon lange, doch mit Multitouch waren sie endlich praxistauglich: Statt mit Tastatur und Maus wird der Computer direkt mit den Fingern gesteuert. Das ist extrem intuitiv – verhindert aber durch große Bedienelemente oft tiefergehende Menüs und Funktionen.

Was am Smartphone, bei Smart-Watches und so mancher einfacher Gerätesteuerung gut funktioniert, lässt die tendenziell leistungsstärkere Tablet-Klasse bis heute kranken: Während Google deshalb bei Android wenig erfolgreiche Desktop-Modi einführte, scheint Apple das iPad nach und nach zum Mac zurückzuentwickeln.

Mischformen, wie sie Microsoft in Union mit vielen Notebook-Herstellern seit Windows 8 pflegt, haben das Problem, dass Touch/Stift-Bedienung und das klassische Cursorschubsen völlig unterschiedliche Oberflächen-Designs benötigen. Touch ist bestenfalls ein Extra auf diesen Hybrid-Geräten geblieben, was zum Beispiel bei Tastatureingaben fehlt, ist haptisches Feedback: Das Schreiben wird dadurch zu einem Lotteriespiel.

Keine Knöpfe sind nicht immer besser

Dennoch hat Touch natürlich weiterhin Potenzial: Weil es ohne anfällige Hardwareschalter auskommt und weil es günstig zu produzieren ist. Touch-Panele sind geduldig, Oberflächen können, anders als mechanische Bedienfelder, jederzeit angepasst werden. Das reizte in der Vergangenheit natürlich immer wieder die ewig unter Kostendruck stehenden Kfz-Hersteller. Das Resultat sind multifunktionale Bord-Entertainment-Systeme im Cockpit, die kaum eine blinde Bedienung zulassen. Eine Phalanx von Lenkrad-Bedienknöpfen, wie im aktuellen ID.Polo von VW , zeigen: Ohne physische Knöpfe geht es bei manchen Anwendungen eben doch nicht.

Sprachassistenten: die Bedienungsrevolution, die keine war

Doch was kommt als nächstes, nach Touch, nach dem Cursor? Seit Jahren tauchen futuristische Bedienkonzepte auf, die allesamt vielversprechend wirken, aber einen großen Nachteil haben: Sie setzen sich aus verschiedenen Gründen nicht durch.

Da ist zum Beispiel die Augmented Reality, die seit vielen Jahren immer wieder von Unternehmen aufgegriffen und als das Nonplusultra beworben wird. Der gordische Knoten ist geknackt, jetzt wird AR Realität! Und dann: Google Glasses? Gescheitert. Microsoft Holo-Lens? Vergessen. Apples Vision Pro? Ein enormer Flop. Metas AI-Glasses? Klotzige Accessoires ohne echten Nutzwert, dafür mit Datenschutzproblemen.

Die Liste ließe sich beliebig erweitern, das Problem aller AR-Lösungen ist, dass sie nicht ohne teure Zusatzhardware auskommen und ihr Nutzwert fragwürdig ist. Bis auf Spezialanwendungen wie CAD oder Medizintechnik scheint das Thema Augumented Reality mit zusätzlichen Brillengläsern abgehakt – zumindest, bis sich die Technik nahtlos in regulären Brillen oder sogar Kontaktlinsen verstecken lässt.

Und dann wären da noch die Sprachassistenten. Endlich mit dem Computer zu sprechen, ist ein schon ewig gehegter Menschheitstraum. 2011 war es dann soweit. Apple löste mit der Veröffentlichung von Siri eine regelrechte Flut an Sprachassistenten aus: Alexa, Google Assistant und Microsoft Cortana wurden in allen nur denkbaren Endgeräten eingebaut.

Das Zeitalter der Sprachsteuerung, so die Hersteller, sollte begonnen haben. In der Praxis waren aber alle Assistenten eher enttäuschend: Bis auf ein wenig Smart-Home- und Mediensteuerung sowie schnelle Recherchen im Netz waren sie kaum für etwas zu gebrauchen. Was fehlte, war leistungsfähige künstliche Intelligenz, die den Systemen die nötigen Interaktionsmöglichkeiten gibt.


Relevante Themen