• IT-Karriere:
  • Services:

Sprachsynthese: Forscher erzeugen Sprache aus Hirnströmen

US-Forscher haben ein System entwickelt, das Signale aus dem Gehirn in gesprochene Sprache übersetzt. Dabei bildet es die Stimme und Sprachmelodie des Probanden nach. Das System soll es in Zukunft Menschen, die ihre Sprechfähigkeit verloren haben, ermöglichen zu sprechen.

Artikel veröffentlicht am ,
Sprachsynthese: ein erster Schritt zur Nachbildung des natürlichen Sprechens
Sprachsynthese: ein erster Schritt zur Nachbildung des natürlichen Sprechens (Bild: UCSF/Screenshot: Golem.de)

Sprache für die Sprachlosen: Forscher der Universität von Kalifornien in San Francisco haben eine Gehirn-Maschine-Schnittstelle (Brain-Computer-Interface, BCI) entwickelt, die Gehirnaktivität in natürlich klingende, synthetische Sprache übersetzt. Das System soll es Menschen, die durch eine Lähmung oder eine andere neurologische Schädigung die Sprachfähigkeit verloren haben, ermöglichen zu kommunizieren.

Stellenmarkt
  1. DAW SE, Gerstungen
  2. Schwarz IT KG, Neckarsulm

Das System besteht aus einer Anordnung von Elektroden, die auf dem Gehirn des Probanden platziert werden. Die Signale werden in einen virtuellen Stimmapparat gespeist. Er bildet die Bewegungen der Lippen, des Kiefers, der Zunge und des Kehlkopfes nach und wandelt so die Hirnsignale in Worte um.

"Diese Studie zeigt erstmals, dass wir aus der Gehirnaktivität einer Person ganze gesprochene Sätze erzeugen können", sagt Edward Chang, Neurochirurg und Leiter der Studie. "Das ist ein erhebender Beweis des Prinzips, dass wir in der Lage sind, mit verfügbarer Technik ein Gerät zu bauen, das für Patienten mit Sprachverlust klinisch praktikabel ist."

Die Studie, die in der Fachzeitschrift Nature erschienen ist, basiert auf einer früheren Arbeit, bei der die Forscher beschrieben, wie das Sprachzentrum im Gehirn die Bewegungen des menschlichen Stimmapparats für flüssiges Sprechen steuert. Dabei fanden sie heraus, dass die Sprachzentren des Gehirns weniger Geräusche als vielmehr Anweisungen für die Koordinierung der Mund- und Rachenbewegungen kodieren. Das könnte der Grund sein, weshalb frühere Versuche, Sprache direkt aus der Hirnaktivität zu extrahieren, nur bedingt erfolgreich waren.

Um das System zu trainieren, ließen die Forscher Epilepsie-Patienten, denen vorübergehend eine Elektrode ins Gehirns implantiert worden war, mehrere Hundert Sätze laut vorlesen. Dabei wurde die Aktivität in den Regionen des Gehirns, die für die Spracherzeugung zuständig sind, aufgezeichnet. Aus diesen Daten rekonstruierten die Forscher die Bewegungen des Stimmapparats, der diese Laute erzeugte: das Zusammenpressen und Öffnen der Lippen, die Bewegungen der Zunge im Mund, das Straffen der Stimmbänder. Insgesamt sind rund 100 Muskeln am Sprechen beteiligt.

Ein individueller virtueller Stimmapparat für jeden Probanden

Die detaillierte Korrelation von Klang und Anatomie ermöglichte es, für jeden Probanden einen virtuellen Stimmapparat zu erzeugen, der durch dessen Gehirnaktivität gesteuert werden konnte. Zu dem System gehören Algorithmen mit maschinellem Lernen: Ein Decoder übersetzt die Hirnaktivitätsmuster, die beim Sprechen entstehen, in Bewegungen des virtuellen Stimmapparats. Ein Synthesizer erzeugt aus Bewegungen des Stimmapparats eine synthetische Stimme, die der des Probanden ähnelt.

Durch einen Schlaganfall oder neurodegenerative Erkrankungen wie Parkinson, Multiple Sklerose und amyotrophe Lateralsklerose (ALS) kann die Sprechfähigkeit eines Menschen beeinträchtigt werden oder verloren gehen. Der im vergangenen Jahr verstorbene Physiker Stephen Hawking war an ALS erkrankt und konnte nur einen Wangenmuskel und seine Augen bewegen.

Stephen Hawking kommunizierte mit Hilfe seines Wangenmuskels

Hawking kommunizierte, indem er seinen Wangenmuskel bewegte. Eine Infrarot-Kamera an seiner Brille erfasste die Bewegungen des Wangenmuskels. So steuerte Hawking einen Cursor auf einem Bildschirm und eine Sprachsynthese-Software. Solche Systeme ermöglichen etwa zehn Worte pro Minute. Gesprochen kann der Mensch etwa 100 bis 150 Worte in der Minute äußern.

Das System soll den Patienten aber nicht nur die Sprache wiedergeben. Es werde zudem in der Lage sein, einen Teil der Sprachmelodie zurückzugeben, die die Emotionen und Persönlichkeit des Sprechers ausdrücke, sagen die Wissenschaftler.

Das System könne schon sehr gut Töne wie "sch" und "z" erzeugen. Auch Sprachrhythmus, Sprachmelodie und das Geschlecht des Sprechenden ließen sich gut nachbilden, sagt Projektmitarbeiter Josh Chartier. Verschlusslaute wie "b" und "p" hingegen funktionierten noch nicht so gut. Es sei zwar schon besser als die bisher verfügbaren Systeme seiner Art. Aber, schränkt Josh Chartier ein: "Es ist noch ein weiter Weg, bis wir die gesprochene Sprache perfekt nachahmen können."

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


Anzeige
Top-Angebote
  1. (u. a. Bee Simulator für 21€, Train Fever für 2,50€, Hard West Collector's Edition für 2...
  2. (u. a. Playmobil The Movie Porsche Mission E für 38,99€, Dreamworks Dragons Todbringer für 15...
  3. (u. a. GTA 5 + Criminal Enterprise Starter Pack + Megalodon Shark Card Bundle für 27,99€, Anno...
  4. 999€ (Bestpreis!)

spitfire_ch 30. Apr 2019

... ... Das würde aber voraussetzen, dass bei allen Menschen das Gehirn gleich oder...


Folgen Sie uns
       


The Last of Us 2 - Fazit

Überleben in der Postapokalypse: Im Actionspiel The Last of Us 2 erkunden wir mit der jungen Frau Ellie unter anderem die Stadt Seattle - und sinnen auf Rache für einen Mord.

The Last of Us 2 - Fazit Video aufrufen
Core i5-10400F im Test: Intels Sechser für Spieler
Core i5-10400F im Test
Intels Sechser für Spieler

Hohe Gaming-Leistung und flott in Anwendungen: Ob der Core i5-10400F besser ist als der Ryzen 5 3600, wird zur Plattformfrage.

  1. Comet Lake S Wenn aus einer 65- eine 224-Watt-CPU wird
  2. Core i9-10900K & Core i5-10600K im Test Die Letzten ihrer Art
  3. Comet Lake Intels vPro-Chips takten höher

Mehrwertsteuersenkung: Worauf Firmen sich einstellen müssen
Mehrwertsteuersenkung
Worauf Firmen sich einstellen müssen

Wegen der Mehrwertsteuersenkung müssen viele Unternehmen in kürzester Zeit ihre Software umstellen. Alle möglichen Sonderfälle müssen berücksichtigt werden, der Aufwand ist enorm.
Von Boris Mayer

  1. Raumfahrt Vega-Raketenstart während Corona-Ausbruchs verschoben
  2. Corona Google und Microsoft starten Weiterbildungsprogramme
  3. Kontaktverfolgung Datenschützer kritisieren offene Gästelisten

Außerirdische Intelligenz: Warum haben wir noch keine Aliens gefunden?
Außerirdische Intelligenz
Warum haben wir noch keine Aliens gefunden?

Seit Jahrzehnten gucken wir mit Teleskopen tief ins All. Außerirdische haben wir zwar bisher nicht entdeckt, das ist aber kein Grund, an ihrer Existenz zu zweifeln.
Von Miroslav Stimac


      •  /