ラズパイ3+Juliusで音声認識 の続編…..みたいなもんです。
音声認識エンジンのJulius がVersion 4.6になってGPU対応になりました。
まぁ、それでJetson Nanoでやってみようかなと。
エッジレベルで使う日本語音声認識エンジンは2020/12/05現在、Julius 一択だと思われます。
MozillaのDeep Speechに期待しますが.
依存パッケージやモジュールをインストールしておきます
ソースコードをクローンしておきます(ver 4.6)
config.guessとconfig.subが古いので、最新版に更新
以下から参照してファイルにしておきます。
config.guess
https://git.savannah.gnu.org/gitweb/?p=config.git;a=blob_plain;f=config.guess
config.sub
https://git.savannah.gnu.org/gitweb/?p=config.git;a=blob_plain;f=config.sub
ファイルにする場合は、UTF-8(BOM無し)で、改行はLFのみのUNIX形式にしておきます。
でないと以下のようなエラーが発生します。
configure: error: cannot run /bin/bash support/config.sub
checking build system type… support/config.guess: line 4: $’\r’: command not found
この2つのファイルを対象ディレクトリの同名ファイルに上書きします。
Juliusインストール
クローンしておいたフォルダーに移動します。
リリースノート(日本語)にあるようにcudaのnvccでビルドします。
JetpackにはCUDAもCUDA toolkit もプレセットされています。現バージョンではcudaは以下の場所にあります。
cinfigureを以下のように構成
ビルド実行
juliusディレクトリでビルドを確認
Julius Japanese Dictation-kitのインストール
git-lfsのインストール
Dictation kitのソースコードをクローンしておきます。
音声認識
USB接続のマイクを使います。
このマイクの番号を確認
以下の例では、カード番号2、デバイス番号は0です。
新規ファイル .profileに記述します
sudo nano .profile
読み直します
source .profile
Juliusを起動
~/julius/julius/julius -C ~/julius/dictation-kit/main.jconf -C ~/julius/dictation-kit/am-gmm.jconf -nostrip
<<<Please Speak>>>が出たらマイクに発話
シェルスクリプト
【julius.sh】
実行権
実行
どのくらい精度を上げられるか検証
工事中
Leave a Reply