Das Speech-Sample ist eine Beispielanwendung in Angular, die das Speech-Angular SDK nutzt, um die Web-App mit Sprachdiensten zu erweitern. Daraus entsteht ein sog. Voice User Infaces - VUI. Dieses ist beispielhaft implemeniert, kann allerdings beliebig geändert und erweitert werden, um so eigene VUI Szenarien zu entwicklen und zu testen.
- 0.5.20.0021 Release vom 17.05.2020 Release Notizen
Wir haben Speech-Sample auf Mac OS X 10.11, Mac OS X 10.13 getestet. Als Plattformen können eingesetzt werden:
- Mac OS X >= 10.11
- Windows >= 7
- aktuelles Linux (z.B. Ubuntu 18.04)
Es wird die aktuellste Angular-Version empfohlen
- Angular >= 7.2
Grundsätzlich ist das Speech-Framework in Chrome, Firefox, Opera, Safari und Edge nutzbar, allerdings hängt die Sprachausgabe unter diesen Browsern von der zugrunde liegenden Text-to-Speech Engine der jeweiligen Plattformen ab. Die Spracheingabe funktioniert bisher nur in Chrome ohne die Nutzung von Nuance. Mit Nuance kann die Spracheingabe in allen hier aufgeführten Browsern verwendet werden.
- Chrome >= 71 Windows/Linux/MacOS (Html5: TTS, ASR)(Nuance: TTS, ASR, NLU)
- Firefox >= 64 Windows/Linux/MacOS (Html5: TTS)(Nuance: TTS, ASR, NLU)
- Opera >= 58 Windows/MacOS (Html5: TTS)(Nuance: TTS, ASR, NLU) Linux (kein Html5)
- Safari >= 12 MacOS/iOS (Html5: TTS)(Nuance: ASR, NLU)
- Edge >= 42 Windows (Html5: TTS)(Nuance: TTS, ASR, NLU)
Will man den Nuance-Clouddienst verwenden, muss ein eigener Nuance-Mix Account eingerichtet werden und die Nuance-Komponente des Speech-Frameworks separat in die eigene App eingebunden werden.
NodeJS muss installiert sein.
- NodeJS >= 10.X und <= 12.X (LTS-Version)
Dieses Projekt wurde mit dem Angular CLI generiert. Bitte installieren, falls nicht vorhanden:
$ npm install -g @angular/cli
Zuerst muss das Speech-Sample Github-Repsitory unter https://github.com/lingualogic/speech-sample mit folgendem Befehl geklont werden:
$ git clone https://github.com/lingualogic/speech-sample
$ cd speech-sample
danach werden alle NPM-Pakete für Speech-Sample mit folgendem Befehl installiert:
$ npm install
Das Beispiel kann mit npm start oder mit dem Angular CLI Befehl ng serve gestartet werden.
$ ng serve
Anschließend kann es in Chrome unter http://localhost:4200/ geöffnet werden.
Dieses Beispiel wurde mit i18n internationalisiert. Die englische Version wird mit folgenden Befehl gestartet:
ng serve --configuration=en
Eine Version für den produktiven Einsatz wird so erzeugt:
ng build --prod --i18n-file src/locale/messages.en.xlf --i18n-format xlf --i18n-locale en
Seit Speech-Angular 0.5.3 sind die Sprachdienste auch auf Android (>= 5.1) und iOS (>= 10) verfügbar. Hierzu wird Cordova genutzt. Eine Anleitung finden sich unter cordova-app/README.md.
Falls cordova noch nicht installiert ist, muss nur einmalig aufgerufen werden:
$ npm run install:cordova
damit werden die Browser-Plattform und die Android-Plattform für Cordova installiert. Das Android-SDK muss vorher installiert sein.
Für die iOS Installation von Cordova muss folgender Befehl nach dem oben beschriebenen install:cordova ausgeführt werden:
$npm run install:cordova:ios
Die Cordova Sample-App für den Browser wird mit folgenden Befehl erzeugt:
$ npm run cordova
für Android:
$ npm run cordova:android
und für iOS:
$ npm run cordova:ios
meistens wird die iOS-Version nicht vollständig erzeugt, sondern bricht mit einer Fehlermeldung ab. In diesem Fall ruft man XCode auf und öffnet das Sample-App iOS-Projekt in XCode, um die App zu erzeugen.
Seit Speech-Angular 0.5.6 ist es möglich eine Desktop Anwendung zu erzeugen. Hierzu wird Electron genutzt. Eine Anleitung finden sich unter electron-app/README.md.
Falls electron noch nicht installiert ist, muss nur einmalig aufgerufen werden:
$ npm run install:electron
dann starten der Electron Sample-App mit folgendem Befehl:
$ npm run electron
Erzeugen einer eigenstaendigen Electron Sample-App:
$ npm run build:electron
Danach ist die Electron Sample-App im Unterverzeichnis electron-app/app/SpeechSampleApp-XXX zu finden.
Sprachaus- und eingaben können einzeln erweitert werden.
Das beispielhafte VUI Szenario greift auf die Funktionalität des Show-Buttons zurück und erklärt mit Hilfe des Bots, wo sich die Hometaste bei einem Tablet befindet. Zur Entwicklung eines eigenen Szenarios können an dieser Stelle weitere Komponenten entwickelt und über Sprache steuerbar gemacht werden.
Für Feedback und Fragen steht das LinguaLogic Team zur Verfügung:
Ansprechpartner: Leo Füchsel (leo@lingualogic.de)
Speech-Sample wurde als Open Source unter der MIT-Lizenz veröffentlicht.