Maschinelles Hören: Wie bitte?

Von den klassischen fünf Sinnen des Menschen ist der Hörsinn einer der vielseitigsten. Wir nehmen über die Augen zwar die meisten Informationen auf, das Ohr ist jedoch sensibler und leistungsfähiger. Je nachdem, mit welcher Energie Schallwellen auf unsere Ohren einwirken, hören wir laute oder leise Töne und können dabei Tonhöhen aus vielen Oktaven unterscheiden. Dies einem Computer beizubringen, klingt zunächst unkompliziert. Die Verarbeitung von Sprachdaten ist jedoch nicht so einfach. Damit Sprachdienste funktionieren, müssen sie Sprache verstehen. Wir beschreiben, was technisch möglich ist - und programmieren nebenbei eine C#-App, mit der wir den Computer mitschreiben lassen, was wir diktieren.
Maschinelles Hören als Teil des Azure-Speech-Dienstes
Maschinelles Hören ist ein wesentlicher Bestandteil des Azure-Speech-Dienstes. Dieser Dienst umfasst eine Reihe computergestützter kognitiver Funktionen, die auf Verfahren der künstlichen Intelligenz (KI) und des maschinellen Lernens (ML) basieren. Wir haben den Speech-Dienst hier vorgestellt (g+) und praktische Anwendungsfälle besprochen. Weitere Details zum Azure-Speech-Dienst können hier nachgeschlagen werden(öffnet im neuen Fenster) .