ラズパイ5(8GB)でLLM 、LangChain とLlamaIndex で外部データを使う-1(メモ)
LLM が応答に使う情報は基本、学習した時点のデー […]
LLM が応答に使う情報は基本、学習した時点のデー […]
Appendix にラズパイ4での結果を追加しまし […]
llama.cppはCで書かれたモジュールの集まり […]
これまでLLM(大規模言語モデル)を量子化して圧縮 […]
「型落ちPCのCPUのみで、量子化した7B(70億 […]
ディープラーニングを軽量化する「モデル圧縮」には3 […]
昨今話題のLLM(大規模言語モデル)の日本語対応版 […]
Colab でもいけるMicrosoftのSLM […]
昨今さかんに生成AIに絡んで大規模言語モデル(LL […]
まず、現在のラズパイがどのくらいの周波数で動作して […]
Copyright © 2024 | WordPress Theme by MH Themes