Neuronale Netze: Baidu veröffentlicht Trainingscode zur Spracherkennung

Mit Hilfe der Connectionist Temporal Classification ( CTC(öffnet im neuen Fenster) ) kann maschinelles Lernen auf sequenziellen Daten so durchgeführt werden, dass es keine strikte Zuordnung von Eingabedaten zur eigentlichen Bezeichnung oder Bedeutung geben muss. Die Forschungsabteilung des chinesischen Suchmaschinenanbieters Baidu hat ihre Implementierung von CTC auf Github unter der Apache-Lizenz(öffnet im neuen Fenster) veröffentlicht.
Eigenen Aussagen zufolge nutzt das Labor für künstliche Intelligenz (AI Lab) von Baidu den nun verfügbaren Code, um Systeme in der Spracherkennung zu trainieren. Der CTC-Ansatz soll dabei wesentlich schneller verwertbare Ergebnisse liefern als das bisher in der Spracherkennung vielfach genutzte Hidden Markov Model (HMM). Als Sprachdaten nutzt Baidu Aufnahmen aus Englisch und Mandarin zum Training.
CTC bereits produktiv im Einsatz
Auch Google verwendet CTC(öffnet im neuen Fenster) für die Analyse bei der Sprachsuche seiner Google-App. In der Beschreibung dazu heißt es, dass im Vergleich zu herkömmlichen Modellen längere Audiodaten analysiert werden können, dabei aber weniger Rechenaufwand nötig sei. Dadurch funktioniere die eigentliche Spracherkennung schneller.
Der von Baidu freigegebene Code ist darauf ausgelegt, CTC selbst möglichst stark zu beschleunigen. Dazu haben die Beteiligten den Algorithmus parallelisiert und neben Code, der auf der CPU läuft, auch eine CUDA-Implementierung erstellt, die auf die Ausführung auf GPUs optimiert ist. Laut Baidu ist der Code zudem schneller als andere zurzeit frei verfügbare Implementierungen.



