Zum Hauptinhalt Zur Navigation

Golem Plus Artikel
Maschinelles Hören:
Wie bitte?

Computer können nicht nur zuhören und Sprache in Text transkribieren; sie erkennen auch, wer spricht und übersetzen gesprochene Wörter nahezu synchron in andere Sprachen. Wir zeigen, was dahinter steckt.
/ Michael Bröde
3 Kommentare News folgen (öffnet im neuen Fenster)
Endlich verstanden werden: Die Verarbeitung von Sprachdaten ist für Maschinen nicht einfach, sie werden aber immer besser. (Bild: Pexels)
Endlich verstanden werden: Die Verarbeitung von Sprachdaten ist für Maschinen nicht einfach, sie werden aber immer besser. Bild: Pexels

Von den klassischen fünf Sinnen des Menschen ist der Hörsinn einer der vielseitigsten. Wir nehmen über die Augen zwar die meisten Informationen auf, das Ohr ist jedoch sensibler und leistungsfähiger. Je nachdem, mit welcher Energie Schallwellen auf unsere Ohren einwirken, hören wir laute oder leise Töne und können dabei Tonhöhen aus vielen Oktaven unterscheiden. Dies einem Computer beizubringen, klingt zunächst unkompliziert. Die Verarbeitung von Sprachdaten ist jedoch nicht so einfach. Damit Sprachdienste funktionieren, müssen sie Sprache verstehen. Wir beschreiben, was technisch möglich ist - und programmieren nebenbei eine C#-App, mit der wir den Computer mitschreiben lassen, was wir diktieren.

Maschinelles Hören als Teil des Azure-Speech-Dienstes

Maschinelles Hören ist ein wesentlicher Bestandteil des Azure-Speech-Dienstes. Dieser Dienst umfasst eine Reihe computergestützter kognitiver Funktionen, die auf Verfahren der künstlichen Intelligenz (KI) und des maschinellen Lernens (ML) basieren. Wir haben den Speech-Dienst hier vorgestellt (g+) und praktische Anwendungsfälle besprochen. Weitere Details zum Azure-Speech-Dienst können hier nachgeschlagen werden(öffnet im neuen Fenster) .

Golem Plus Artikel