English, Deutsch, Denglisch?!
Dass Mycroft seinen Ursprung in der englischen Sprache hat, merkt man derzeit noch. Sowohl der sogenannte Core als auch die Skills funktionieren am besten, wenn Mycroft in englischer Sprache betrieben wird. Jedoch gibt es für die meisten Skills auch deutsche Übersetzungen.
Einige davon scheinen automatisiert übersetzt zu sein und entsprechen daher nicht der gängigen deutschen Alltagssprache. Mitunter offenbart ein Blick in den Quellcode eines Skills auch fest verdrahtete englische Schlüsselwörter. Wer keine Angst vor dem Editieren von Übersetzungsdateien hat, kann sich meistens schnell behelfen oder das System an seinen eigenen Sprachstil anpassen.
"Hey Mycroft"
Anders als die Spracherkennung der Benutzeranfrage wird das sogenannte Wake Word auf der Mycroft-Installation lokal erkannt. Dabei handelt es sich um eine kurze Phrase, die Mycroft mitteilt, dass jetzt die eigentliche Benutzeranfrage folgt. Standardmäßig lautet die Phrase "Hey Mycroft" - analog zu Phrasen wie "Alexa" oder "Hey Google". Mycroft bietet andere Phrasen an, etwa "Christopher" oder "Hey Jarvis". Letzteres dürfte Anhängern des Marvel-Universums ein Lächeln ins Gesicht zaubern.
Es können auch eigene Wake Words trainiert werden, um Mycroft noch etwas persönlicher zu gestalten. Dabei sollte man darauf achten, dass das Wort nicht zu lang ist, phonetisch nicht leicht mit anderen Wörtern zu verwechseln ist und im täglichen Sprachgebrauch nicht zu oft verwendet wird, da dies sonst möglicherweise zu einigen ungewünschten Aktivierungen führt.
Sobald die Benutzeranfrage als Text vorliegt, versucht Mycroft, die Anfrage zu verstehen und mit Hilfe von Skills zu beantworten. Dieses sogenannte Natural Language Understanding (NLU) wird ebenfalls lokal auf der Mycroft-Installation durchgeführt.
Erweiterung mit Skills
Die Fähigkeiten, welche Mycroft beherrscht, kommen über sogenannte Skills in das System. Einige dieser Skills werden direkt vom Hersteller entwickelt und gepflegt. Dazu zählen unter anderem "klassische" Funktionen wie ein Timer, Wecker, Wetterabfragen und einige mehr. Eine umfangreichere Liste wird durch die aktive Community entwickelt und gepflegt.
Viele Skills werden bereits bei der Installation mitinstalliert, während zusätzliche Skills entweder per Mycroft-Weboberfläche, per Kommandozeile oder per Sprache hinzugefügt oder entfernt werden können.
Die Entwicklung eigener Skills ist mit Python möglich und in der offiziellen Mycroft-Dokumentation gut beschrieben. Eigene Skills können nur für den eigenen Gebrauch sein oder über Github mit der Community geteilt werden.
Das leidige Thema Audio-Setup
Ein weiterer Klassiker der häufigsten Fragen stellt die Audio-Einrichtung dar. Hier stellt die Mycroft-Dokumentation nützliche Informationen zur Verfügung. Aufgrund der Vielzahl möglicher Gerätekombinationen gibt es nicht für jedes Gerät eine detaillierte Beschreibung. Wer allerdings mit Pulseaudio Erfahrung hat oder sich nicht scheut, Erfahrung in diesem Bereich aufzubauen, wird die Einrichtung sicherlich erfolgreich abschließen können. Ein handelsübliches, von Linux unterstütztes USB-Headset leistet für den Anfang gute Dienste.
Wer sich für eine Installation auf einem Raspberry Pi entschieden hat und nicht konstant ein Headset auf den Ohren möchte (obwohl die meisten Homeoffice-Ohren mittlerweile daran gewöhnt sein dürften), hat weitere Optionen. So werden Mikrofon-Arrays wie ein ReSpeaker 4 oder Matrix Voice für den Raspberry Pi von Mycroft unterstützt.
Die Mycroft-Community hilft
Wer Lust bekommen hat, sich Mycroft anzuschauen, für den lohnt sich ein Blick auf die Webseite des Herstellers. Gute Unterstützung bietet auch die aktive Community oder per Chat.
Für Anwender, die ein Plug-and-Play-System suchen, um ihren bisherigen Sprachassistenten abzulösen, ohne sich dabei mit Konfigurationsdateien zu beschäftigen, ist Mycroft derzeit noch nicht geeignet. Wer allerdings bereit ist, mit Python-Code, umfangreichen Konfigurationsparametern und der JSON-Whitespace-Hölle zu experimentieren, der findet mit Mycroft eine solide Basis für spannende winterliche Bastelabende.
Thorsten Müller beschäftigt sich als IT-Enthusiast mit Smart-Home-Konzepten und Themen rund um offene Sprachtechnologien (Sprachassistenten, Spracherkennung und Sprachsynthese). Sein Wissen teilt er in Open-Voice-Communitys, auf Youtube und auf seinem Twitter-Account.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Modularer Aufbau - Beispiel lokales TTS |
Danke für den Hinweis!
Hallo. eine lokale deutsche Stimme wird nicht mitgeliefert. Standardmäßig werden hier...
Hallo, standardmäßig werden deutsche Spracherkennung und Sprachausgabe per Cloud Diensten...
Ein vollständig offline funktionierendes System ist Rhasspy (ich darf noch keine Links...