コンテンツにスキップ

設計図パート - Cllama (llama.cpp)

blueprint

オフラインモデル

Cllamaは、llama.cppに基づいて実装され、オフラインでAI推論モデルをサポートしています。

オフラインなので、まずモデルファイルを準備する必要があります。たとえば、HuggingFaceウェブサイトからオフラインモデルをダウンロードする必要があります: Qwen1.5-1.8B-Chat-Q8_0.gguf

特定のフォルダーにモデルを置いてください。例えば、ゲームプロジェクトのディレクトリ Content/LLAMA の下に配置します。

E:/UE/projects/FP_Test1/Content/LLAMA > ls
qwen1.5-1_8b-chat-q8_0.gguf*

オフラインモデルファイルがあれば、Cllamaを使ってAIチャットを行うことができます。

テキストチャット

Cllamaを使用してテキストチャットを行う

青写真でノードを右クリックして「Send Cllama Chat Request」を作成してください。

guide bludprint

Options ノードを作成して、Stream=true, ModelPath="E:\UE\projects\FP_Test1\Content\LLAMA\qwen1.5-1_8b-chat-q8_0.gguf" を設定してください。

guide bludprint

guide bludprint

Messagesを作成し、System MessageとUser Messageをそれぞれ1つ追加します。

guide bludprint

Delegateを作成し、モデルからの出力情報を受け取り、画面に表示する。

guide bludprint

guide bludprint

完全な設計図はこう見えるよ。設計図を実行すれば、ゲーム画面で大規模なモデルの印刷結果が表示されるよ。

guide bludprint

guide bludprint

画像を生成するテキスト llava

Cllamaはllavaライブラリを実験的にサポートし、Visionの機能を提供しました。

ます。こちらが翻訳です:

まず、Multimodalオフラインモデルファイルを準備します。例えば、Moondream(moondream2-text-model-f16.gguf, moondream2-mmproj-f16.ggufQwen2-VL(Qwen2-VL-7B-Instruct-Q8_0.gguf, mmproj-Qwen2-VL-7B-Instruct-f16.gguf)または他の llama.cpp がサポートするMultimodalモデル。

Options ノードを作成し、"Model Path" と "MMProject Model Path" のパラメータをそれぞれ対応する Multimodal モデルファイルに設定してください。

guide bludprint

画像ファイル flower.png を読み込んでノードを作成し、Messages を設定してください。

guide bludprint

guide bludprint

最後、ノードを作成し、返された情報を受け取り、画面に出力します。完全な設計図は次のようになります。

guide bludprint

フロー図を実行すると、返されるテキストが表示されます。

guide bludprint

llama.cppを使ってGPUを活用します。

"Cllama Chat Request Options" has added the parameter "Num Gpu Layer", which allows setting the GPU payload of llama.cpp, enabling control over the number of layers that need to be computed on the GPU. See the figure for reference.

guide bludprint

モデルファイルを.Pakにパッケージ化した後の処理

Pak パッケージングを開始すると、プロジェクトのすべてのリソースファイルが .Pak ファイルに保存されます。もちろん、オフラインモデルである gguf ファイルも含まれています。

LLama.cpp は .Pak ファイルを直接読むことができないので、オフラインモデルファイルを .Pak ファイルからファイルシステムにコピーする必要があります。

AIChatPlusは、.Pak内のモデルファイルを自動的にコピーしてSavedフォルダに配置する機能関数を提供しています。

guide bludprint

または、.Pak内のモデルファイルを自分で操作することもできますが、重要なのはファイルをコピーして出力する必要があるということです。なぜなら、llama.cppは.Pakを正しく読み取れないからです。

機能ノード

Cllamaは、現在の状況を取得するのに便利ないくつかの機能ノードを提供しています。

"Cllama Is Valid":Cllama llama.cpp の初期化が正常かどうかを判断します。

guide bludprint

"Cllama Is Support Gpu":判断 llama.cpp 在当前环境下是否支持 GPU backend

guide bludprint

"「Cllama Get Support Backends」: Get all the backends supported by the current llama.cpp"

guide bludprint

"Cllama Prepare ModelFile In Pak": Pak内のモデルファイルを自動的にファイルシステムにコピーします。

guide bludprint

Original: https://wiki.disenone.site/ja

This post is protected by CC BY-NC-SA 4.0 agreement, should be reproduced with attribution.

この投稿はChatGPTを使用して翻訳されました。フィードバック指摘してくれたら見逃しはないよ。