Original-URL des Artikels: https://www.golem.de/news/digitaler-assistent-google-entwickelt-eine-offline-sprachsteuerung-1603-119725.html    Veröffentlicht: 14.03.2016 08:57    Kurz-URL: https://glm.io/119725

Digitaler Assistent

Google entwickelt eine Offline-Sprachsteuerung

Google forscht an einem digitalen Assistenten mit Sprachsteuerung, der keine Internetverbindung mehr benötigt. Dadurch soll er insgesamt schneller reagieren können, ohne übermäßig viel Speicher auf einem Smartphone zu belegen. Erprobt wird das Ganze auf einem Nexus 5.

Der bisherige Ansatz digitaler Assistenten soll durchbrochen werden - das setzt sich Google zum Ziel und hat in einem Forschungspapier (PDF-Datei) erste Ergebnisse skizziert. Das Projekt soll diesen Monat auf einer Konferenz ausführlich vorgestellt werden. Googles Ansatz sieht vor, den Speicherbedarf zum Ablegen von Basisdaten für eine Spracherkennung möglichst kompakt zu halten, damit die Sprachsteuerung ohne Internetverbindung funktionieren kann.

Offline-Sprachsteuerung läuft auf einem Nexus 5

Bisherige digitale Assistenten wie Google Now, Apples Siri oder Microsofts Cortana setzen eine bestehende Internetverbindung voraus, denn alle benötigen Zugang zu großen Rechenzentren, in denen die Spracheingaben analysiert und zu Befehlen umgewandelt werden. Das Auslagern in Rechenzentren umgeht das Problem, große Datenmengen auf den Geräten vorhalten zu müssen. Zum Teil greifen die Assistenten auch auf Internetseiten zurück, um Fragen zu beantworten.

Google hat nach eigenen Angaben einen Weg gefunden, die benötigten Datenmengen für eine umfassende Sprachsteuerung stark zu komprimieren. Trotz der komprimierten Daten werden diese in kurzer Zeit entpackt, so dass eine unmittelbare Bedienung möglich sein soll. Google hat die Offline-Sprachsteuerung für ein Nexus 5 entwickelt, das bezüglich der Hardware schon etwas veraltet ist. Demnach sollte die Sprachsteuerung nicht zwingend Oberklasse-Smartphones voraussetzen, damit sie funktioniert.

Komprimierte Sprachdaten belegen 24 MByte

Googles größte Herausforderung war es, die Sprachdaten in den Speicher mobiler Geräte zu bekommen. Dabei wurden die Daten für eine Sprache in ein knapp 24 MByte großes Archiv gepackt. Aber durch die Komprimierung der Daten soll eine Sprachsteuerung ganz ohne Internetanbindung gelungen sein. Wenn das System wie andere digitale Assistenten auf Daten anderer Webseiten zugreift, wird logischerweise eine Internetverbindung benötigt.

Google will das Projekt mit dem Titel "Personalized Speech Recognition on Mobile Devices" diesen Monat in Schanghai zeigen. Google ist Teilnehmer der International Conference on Acoustics, Speech and Signal Processing (ICASSP) und will das Konzept am 23. März 2016 auf der Konferenz ausführlich vorstellen. Derzeit ist nicht bekannt, ob und wenn ja wann dieses System der Sprachsteuerung regulär angeboten wird.  (ip)


Verwandte Artikel:
Chrome: Google spricht und hört zu   
(23.05.2013, https://glm.io/99393 )
Reiseziele auf Google ausprobiert: Google Now wird zum Reiseplaner   
(09.03.2016, https://glm.io/119654 )
Smarte Lautsprecher: Alexa ist beliebter als Google Assistant   
(05.03.2018, https://glm.io/133135 )
Bungie: Destiny 2 bekommt Alexa-Sprachbefehle   
(30.11.2017, https://glm.io/131431 )
Sprachassistent: Siri lenkt Autofahrer stärker ab als Google Now   
(27.10.2015, https://glm.io/117127 )

© 1997–2020 Golem.de, https://www.golem.de/