Sprache statt Display: OpenAI geht ins Ohr

OpenAI hat in den vergangenen zwei Monaten mehrere Entwicklungs-, Produkt- und Forschungsteams zusammengeführt, um seine Audio-Modelle grundlegend zu überarbeiten. Laut einem Bericht von The Information(öffnet im neuen Fenster) arbeitet das Unternehmen an einem audio-basierten Gerät, das in etwa einem Jahr auf den Markt kommen soll. Die geplanten Geräte würden in direkte Konkurrenz zu Amazons Alexa-Produkten und Googles Assistant-Ökosystem treten.
Die Strategie fügt sich in eine breitere Entwicklung der Tech-Branche ein. Bildschirme verlieren an Bedeutung, während Audio-Schnittstellen zunehmend in den Vordergrund rücken. Smart Speaker haben sich bereits in mehr als einem Drittel der US-Haushalte etabliert.
Meta hat kürzlich eine Funktion für seine Ray-Ban Smart Glasses(öffnet im neuen Fenster) vorgestellt, die mit einem Fünf-Mikrofon-Array arbeitet. Die Technologie soll Gespräche in lauten Umgebungen verständlicher machen. Google experimentiert seit Juni mit "Audio Overviews", die Suchergebnisse in gesprochene Zusammenfassungen umwandeln.
Tesla integriert den Chatbot Grok von xAI in seine Fahrzeuge. Der Sprachassistent soll über natürliche Dialoge funktionieren und Aufgaben von der Navigation bis zur Klimasteuerung übernehmen.
Start-ups testen verschiedene Ansätze
Neben den großen Tech-Konzernen versuchen sich auch mehrere Start-ups an audio-basierten Geräten. Der Humane AI Pin, ein bildschirmloses Wearable, verbrauchte Hunderte Millionen US-Dollar, bevor das Projekt scheiterte. Der Friend AI Anhänger, eine Halskette, die das Leben aufzeichnen und Gesellschaft leisten soll, hat Datenschutzbedenken ausgelöst.
Mindestens zwei Unternehmen entwickeln derzeit KI-Ringe. Sandbar und ein Projekt unter Leitung von Pebble-Gründer Eric Migicovsky planen eine Markteinführung für 2026. Die Geräte ermöglichen es Nutzern, per Sprache mit der Hand zu kommunizieren.
Die unterschiedlichen Geräteformen verfolgen eine gemeinsame These: Audio-Schnittstellen werden zur Standard-Interaktionsform. Wohnräume, Autos und sogar Brillen entwickeln sich zu Steuerungsflächen für Sprachbefehle.
Das neue Audio-Modell von OpenAI soll Anfang 2026 erscheinen. Berichten zufolge wird es natürlicher klingen und Unterbrechungen wie ein menschlicher Gesprächspartner verarbeiten können. Die Technologie soll auch während der Nutzer spricht reagieren können, was aktuelle Modelle nicht beherrschen.
OpenAI plant offenbar eine Familie von Geräten, möglicherweise einschließlich Brillen oder bildschirmloser Smart Speaker. Die Geräte sollen weniger als Werkzeuge und mehr als Begleiter funktionieren.
Der ehemalige Apple-Designchef Jony Ive, dessen Firma io im Mai für 6,5 Milliarden US-Dollar von OpenAI übernommen wurde, hat die Reduzierung von Geräteabhängigkeit zu einer Priorität erklärt. Ive sieht audio-basiertes Design als Möglichkeit, frühere Fehler bei Konsumgeräten zu korrigieren.



