Aller au contenu

Section Blueprint - Cllama (llama.cpp)

blueprint

Modèle hors ligne

Cllama est basé sur llama.cpp et prend en charge l'utilisation hors ligne des modèles d'inférence en intelligence artificielle.

Étant donné qu'il s'agit d'une opération hors ligne, nous devons d'abord préparer les fichiers de modèle, tels que le téléchargement du modèle hors ligne depuis le site HuggingFace : Qwen1.5-1.8B-Chat-Q8_0.gguf

Placez le modèle dans un dossier spécifique, par exemple dans le répertoire Content/LLAMA du projet de jeu.

E:/UE/projects/FP_Test1/Content/LLAMA > ls
qwen1.5-1_8b-chat-q8_0.gguf*

Une fois que nous avons le fichier du modèle hors ligne, nous pouvons utiliser Cllama pour effectuer des discussions AI.

Discussion par texte

Utiliser Cllama pour des discussions textuelles

Créez un nœud "Envoyer une Demande de Chat Cllama" en faisant un clic droit dans le diagramme.

guide bludprint

Créez un nœud Options et définissez Stream=true, ModelPath="E:\UE\projects\FP_Test1\Content\LLAMA\qwen1.5-1_8b-chat-q8_0.gguf".

guide bludprint

guide bludprint

Créez des messages, ajoutez respectivement un message système et un message utilisateur.

guide bludprint

Créez un délégué pour recevoir les informations de sortie du modèle et les afficher à l'écran

guide bludprint

guide bludprint

Le texte en français est le suivant :

Le texte à traduire en français est le suivant :

guide bludprint

guide bludprint

Créer un texte à partir de l'image llava

Cllama a également expérimentalement supporté la bibliothèque llava, offrant ainsi la capacité de Vision.

Tout d'abord, préparez le fichier du modèle hors ligne multimodal, comme Moondream (moondream2-text-model-f16.gguf, moondream2-mmproj-f16.gguf)或者 Qwen2-VL(Qwen2-VL-7B-Instruct-Q8_0.gguf, mmproj-Qwen2-VL-7B-Instruct-f16.ggufVeuillez traduire ce texte en français :

)ou d'autres modèles multimodaux pris en charge par llama.cpp.

Créez un noeud Options, puis définissez les paramètres "Chemin du modèle" et "Chemin du modèle MMProject" avec les fichiers de modèle multimodal correspondants.

guide bludprint

Crée un nœud pour lire le fichier d'image flower.png et configure les messages.

guide bludprint

guide bludprint

Crée en fin de compte un nœud qui recevra les informations renvoyées, puis les affichera à l'écran. Voici à quoi ressemblerait le schéma complet.

guide bludprint

Exécutez le schéma pour afficher le texte renvoyé.

guide bludprint

Le fichier llama.cpp utilise le GPU.

Ajouter des options de demande de chat Cllama en ajoutant le paramètre "Num Gpu Layer", qui permet de définir la charge GPU de llama.cpp, permettant de contrôler le nombre de couches à calculer sur le GPU. Voir l'image pour plus de détails.

guide bludprint

Traiter les fichiers de modèle dans le fichier .Pak après l'emballage.

Une fois que le Pak est activé, tous les fichiers de ressources du projet seront placés dans le fichier .Pak, y compris le fichier gguf du modèle hors ligne.

Étant donné que llama.cpp ne peut pas lire directement les fichiers .Pak, il est nécessaire de copier les fichiers de modèle hors ligne du fichier .Pak dans le système de fichiers.

AIChatPlus propose une fonctionnalité permettant de copier automatiquement les fichiers de modèle du fichier .Pak et de les placer dans le dossier Saved :

guide bludprint

Ou bien vous pouvez traiter les fichiers de modèle vous-même dans le fichier .Pak. L'essentiel est de copier les fichiers, car llama.cpp ne peut pas lire correctement le fichier .Pak.

Nœud de fonction

Cllama offre des nœuds de fonctionnalités permettant de récupérer l'état actuel de l'environnement.

"Cllama Is Valid":Vérifiez si Cllama est correctement initialisé dans llama.cpp.

guide bludprint

Vérifie si le fichier llama.cpp prend en charge le backend GPU dans l'environnement actuel.

guide bludprint

"Obtenir les backends pris en charge par llama.cpp actuel"

guide bludprint

"Prépare le fichier du modèle Cllama dans Pak": Automatically copies model files from Pak to the file system.

guide bludprint

Original: https://wiki.disenone.site/fr

This post is protected by CC BY-NC-SA 4.0 agreement, should be reproduced with attribution.

Ce message a été traduit en utilisant ChatGPT, veuillez feedbackSignalez tout oubli.