ラズパイ5にOllama + ローカルLLM + Dify を導入


前回までラズパイ5+外付けGPUでLLMを実行する環境を作りました。

ここではラズパイ5単体のCPUのみでLLMを使ったAIエージェントなどを実行する環境を作ってみます。

SSDから起動したラズパイ5(8GB)にローカルLLM(Gemma)とLMツールのOllama、チャットボットやエージェント作成用にDifyを導入してみます。

ラズパイ(8GB)にはOSとしてBookworm(64-bit)Desktop をインストールしておきます。


事前準備

Docker を使うのでインストールしておきます。

まずはOSのアップデート&アップグレード

Docker導入

dockerグループにユーザを追加

パッケージをインストール

無事インストールできたか確認

 


ディレクトリ作成と構成ファイルの準備

ディレクトリ作成

 

構成ファイルの準備

内容はこんな感じ。コピー・ペーストしてyamlファイルを閉じます。

 


ollamaを導入

以下を実行。ollamaが存在しなければイメージがダウンロードされ、その後ollamaというコンテナ作成後、ollamaは起動されます。

ollama に接続するシェルスクリプトを作成

以下をコピー・ペーストして閉じます。

接続準備

ollama は起動しているので、ollama の シェル( bash )に接続して利用していきます。

成功したらプロンプトは以下のように変わります。
@の後ろはインストール環境によって異なります

root@28101b326b68:/#

確認

以下が表示されればOK。
NAME   ID   SIZE   MODIFIED

 


Gemmaモデルの導入

Gemma(ジェマ)は、GoogleがGeminiと同じ技術基盤(研究・テクノロジー)を用いて開発した、軽量でオープンなAIモデルのファミリーです。PCやデバイス上でローカルに動作可能なため、プライバシー保護、オフライン利用、高速なレスポンスを実現し、商用利用も可能な生成AIです。

gemma2と3をダウンロードして実行してみます。

ollamaでpullしてからrunします。
ダウンロードは時間がかかります。

ダウンロードが終了したらsuccessと表示されプロンプトが変わります。

 

 

 

 

 

 

 

 

runして何か質問してみましょう。

>>>Send a message (/? for help)

 

終了は Ctrl + d


Dify導入

Difyは生成AIやLLMを活用しアプリケーションを効率よく開発するための多機能なプラットフォームです。

Dify のセットアップ

Githubからクローンします。

exampleをそのまま使ってみます。

ダウンロードが開始されます。

 

 

 

 

 

 

 

 

 

 

 

終了後Difyは起動されています。

 

 

 

 

 

 

 

 

 

 

 

外部ブラウザーからアクセスします。

http://<IPアドレス>

最初にアカウント設定の画面が開きます。

メールアドレス、ユーザー名、パスワードを入れてセットアップします。

 

 

 

 

 

 

 

 

初期画面はこんな感じ。

 

 

 

 

 

 

 

 

 

ここからチャットボットやワークフロー、エージェントなどのアプリケーションを作成します。

 


Appendix

次回、DifyでRAGを使ったチャットボットを作成し、どこにも存在しないプリンターのPDFマニュアルを読み込んで、学習したことのない質問に答えてもらいます。

 

 


 

Be the first to comment

Leave a Reply

Your email address will not be published.


*