Microsoft Research: Computersystem übersetzt praktisch simultan
Microsoft ermöglicht es, Chinesisch zu sprechen, ohne Chinesisch zu können: Das Unternehmen hat ein System entwickelt, das gesprochene englische Sprache erkennt, sie ins Chinesische übersetzt und mit der Stimme des Sprechers ausgibt.

"Spreche ich Chinesisch?" wird gern gefragt, wenn das Gegenüber partout den Sinn der eigenen Rede nicht verstehen will. Mit einem neuen Sprachsystem lautet die Antwort: egal. Oder besser: fast egal. Denn das System übersetzt gesprochene englische Sprache ins Chinesische.
Das System integriert mehrere Aufgaben: Spracherkennung, Übersetzung und Sprachsynthese, von denen vor allem die ersten beiden recht schwierig sind. Entwickelt wurde es von Microsoft Research. Microsofts Forschungschef Rick Rashid hat es kürzlich auf einer Konferenz in China vorgestellt.
Gehirn imitiert
Das System erkennt zunächst den gesprochenen englischen Text. Schon das ist eine schwierige Aufgabe. Dank der Deep Neural Networks konnten Verbesserungen erzielt werden. Die Technik wurde vor zwei Jahren von Forschern der Universität in Toronto und Microsoft Research entwickelt und ahmt die Art und Weise nach, wie das menschliche Gehirn arbeitet. Damit lässt sich die Fehlerquote bei der Spracherkennung, die zuvor bei etwa 20 bis 25 Prozent lag, auf etwa 15 Prozent reduzieren. Das bedeutet, die Quote wurde von einem Fehler in vier bis fünf Worten auf einen Fehler in sieben bis acht Worten gesenkt.
Dann folgt die Übersetzung. Dabei wird zuerst der englische Text Wort für Wort ins Chinesische übersetzt. Dann werden die Worte so sortiert, dass der Text den Vorgaben der chinesischen Grammatik entspricht. Maschinenübersetzung sei in den vergangenen Jahren durch die Kombination von statistischen Verfahren und der Verarbeitung großer Datenmengen, den sogenannten Big Data, revolutioniert worden, erklärt Rashid im Blog Next At Microsoft.
Chinesisch mit Rashids Stimme
Im letzten Schritt wird schließlich der chinesische Text von einer Sprachsynthesesoftware mit der Stimme des Sprechers ausgegeben. Dazu wurden zunächst mehrere Stunden Material von chinesischen Muttersprachlern aufgezeichnet. Außerdem wurde das System mit Aufzeichnungen von Vorträgen, die Rashid gehalten hat, gefüttert. Das Sprachsynthesesystem kombinierte diese Daten so, dass chinesischer Text mit Rashids Stimme ausgegeben wurde.
Das Ergebnis kann sich hören lassen: Akzent und Ton klingen richtig. Die Stimme ist deutlich menschlicher als manche Sprachausgabesysteme, die etwa an Bahnhöfen die Zugverbindungen ansagen. Bei den hauptsächlich chinesischen Zuhörern erntete Rashid jedenfalls Beifall mit seiner Präsentation.
Das System sei noch nicht perfekt, schreibt Rashid. "Es ist natürlich wahrscheinlich, dass sowohl im englischen Text als auch bei der Übersetzung ins Chinesische noch Fehler auftreten - die Ergebnisse können manchmal lustig sein." Doch auch wenn die Technik noch nicht perfekt sei und es noch viel Arbeit gebe, sei sie doch "vielversprechend, und wir hoffen, dass wir in einigen Jahren ein System zur Verfügung haben werden, das die Sprachbarrieren beseitigen wird."
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Für Smalltalk braucht es nicht Ganz oder Garnicht. Menschen die kaum Englisch sprechen...
Meine linke lag eben noch bequem am Schoß, die Hände habe ich erst an der Tastatur...
Die Idee selbst ist ja auch weder neu noch wirklich einzigartig. Die Fehlerreduktion um 5...
+1 Zeit wird's.