Jetson Nano + Juliusで音声認識


ラズパイ3+Juliusで音声認識 の続編…..みたいなもんです。

音声認識エンジンのJulius がVersion 4.6になってGPU対応になりました。

まぁ、それでJetson Nanoでやってみようかなと。

エッジレベルで使う日本語音声認識エンジンは2020/12/05現在、Julius 一択だと思われます。

MozillaのDeep Speechに期待しますが.

 


依存パッケージやモジュールをインストールしておきます

ソースコードをクローンしておきます(ver 4.6)

config.guessとconfig.subが古いので、最新版に更新

以下から参照してファイルにしておきます。

config.guess
https://git.savannah.gnu.org/gitweb/?p=config.git;a=blob_plain;f=config.guess
config.sub
https://git.savannah.gnu.org/gitweb/?p=config.git;a=blob_plain;f=config.sub

ファイルにする場合は、UTF-8(BOM無し)で、改行はLFのみのUNIX形式にしておきます。

でないと以下のようなエラーが発生します。

configure: error: cannot run /bin/bash support/config.sub

checking build system type… support/config.guess: line 4: $’\r’: command not found

この2つのファイルを対象ディレクトリの同名ファイルに上書きします。

 


Juliusインストール

クローンしておいたフォルダーに移動します。

リリースノート(日本語)にあるようにcudaのnvccでビルドします。

JetpackにはCUDAもCUDA toolkit もプレセットされています。現バージョンではcudaは以下の場所にあります。

cinfigureを以下のように構成

ビルド実行

juliusディレクトリでビルドを確認

 


Julius Japanese Dictation-kitのインストール

git-lfsのインストール

Dictation kitのソースコードをクローンしておきます。

 


音声認識

USB接続のマイクを使います。

このマイクの番号を確認

以下の例では、カード番号2、デバイス番号は0です。

新規ファイル .profileに記述します

sudo nano .profile

読み直します
source .profile

Juliusを起動

オプション説明

~/julius/julius/julius -C ~/julius/dictation-kit/main.jconf -C ~/julius/dictation-kit/am-gmm.jconf -nostrip

<<<Please Speak>>>が出たらマイクに発話

シェルスクリプト

【julius.sh】

実行権

実行

 

 


どのくらい精度を上げられるか検証

 

工事中

 

ラズパイの場合

 


 

Be the first to comment

Leave a Reply

Your email address will not be published.


*