Alexa, Google Assistant und Siri: Digitale Assistenten versagen bei Sprachbehinderungen
Amazon, Apple und Google arbeiten daran, dass Alexa, Siri und Google Assistant bald auch stotternde Menschen verstehen sollen.

Manche Menschen mit Sprachbehinderungen haben zusätzlich weitere gesundheitliche Einschränkungen und könnten daher eigentlich ganz besonders von einer guten Sprachsteuerung profitieren. Wenn sich solche Personen nicht gut bewegen können, könnte ihnen eine Sprachsteuerung den Alltag vereinfachen.
Allerdings versagen Alexa, Google Assistant und Siri meist, sobald eine Person etwa stottert oder aufgrund anderer Behinderungen längere Pausen beim Sprechen von Befehlen einlegen muss. Amazon, Google und Apple arbeiten laut einem Bericht des Wall Street Journal daran, diese Probleme zu lösen.
Die Sprachassistenten werden mittels Signalwort aktiviert. Danach erwarten alle drei Systeme, dass ein passender Befehl gesprochen wird. Sobald der Sprachbefehl verstanden wurde, wird dieser umgesetzt. Und genau das sorgt dafür, dass Menschen mit Sprechstörungen die digitalen Assistenten kaum nutzen können.
Alexa, Google Assistant und Siri mögen keine Sprechpausen
Eine längere Sprechpause innerhalb einer Ansage sorgt dafür, dass die Assistenten davon ausgehen, der Befehl sei zu Ende gesprochen und versuchen, den Befehl auszuführen. Wenn der Befehl dann nicht zu Ende gesprochen wurde, wird natürlich nicht das gemacht, was gewollt war.
Dieses Problem gibt es auch bei Menschen ohne Sprachstörung, wenn sie mitten in einem Sprachbefehl den Faden verlieren. Allerdings ist es für sie nicht so mühsam, den Sprachbefehl einfach zu wiederholen.
Derzeit trainieren Amazon, Google und Apple ihre jeweiligen digitalen Assistenten mit Audiodateien, in denen Menschen mit einer Sprachstörung die entsprechenden Befehle sagen. Damit sollen die Systeme trainiert werden, zu erkennen, wann eine Person mit einer Sprachstörung den digitalen Assistenten verwendet.
Dabei setzen die Hersteller unter anderem darauf, dass das spezielle Sprechmuster solcher Personen analysiert wird, damit sich der digitale Assistent entsprechend darauf einstellt und anders verhält als sonst. Es ist noch nicht absehbar, wie lange es dauert, bis die Sprachassistenten auch Personen mit Sprechstörungen verstehen können.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Dann ist Wochenende. Ist doch klar das bei schlechter Sprechweise egal welcher Natur ein...