Document d'instructions de l'extension AIChatPlus de l'UE
Boutique de modules complémentaires
Entrepôt public.
Présentation du module complémentaire
La dernière version v1.6.0.
Ce plugin est compatible avec UE5.2 - UE5.5.
UE.AIChatPlus est un plug-in pour UnrealEngine qui permet de communiquer avec divers services de discussion AI GPT. Les services actuellement pris en charge sont OpenAI (ChatGPT, DALL-E), Azure OpenAI (ChatGPT, DALL-E), Claude, Google Gemini, Ollama et une version locale hors ligne de llama.cpp. À l'avenir, il prendra également en charge d'autres fournisseurs de services. Son implémentation repose sur des requêtes REST asynchrones, offrant ainsi des performances élevées et permettant aux développeurs d'Unreal Engine de se connecter facilement à ces services de discussion AI.
Le UE.AIChatPlus comprend également un outil d'édition qui permet d'utiliser directement ces services de discussion IA dans l'éditeur, pour générer du texte et des images, analyser des images, etc.
Les caractéristiques principales
Nouveau! Le fichier AI llama.cpp hors ligne a été mis à jour vers la version b4604.
Nouveau ! Prise en charge GPU Cuda et Metal pour AI llama.cpp hors ligne.
Nouveau ! Prise en charge du service de transcription vocale en texte Gemini.
API:Prise en charge d'OpenAI, Azure OpenAI, Claude, Gemini, Ollama, llama.cpp, DeepSeek
API en temps réel hors ligne : prend en charge l'exécution hors ligne de l'IA avec llama.cpp, compatible avec les technologies GPU Cuda et Metal.
Traduisez ce texte en français :
文本转文本 : Plusieurs API prennent en charge la génération de texte.
Translation: Transformation de texte en image : OpenAI Dall-E
Conversion d'image en texte : OpenAI Vision, Claude, Gemini, Ollama, llama.cpp
Image to Image: OpenAI Dall-E
Transcription vocale : Gemini
Blueprint : toutes les API et fonctionnalités prennent en charge le blueprint
Outil de discussion de l'éditeur : un outil de chat AI sophistiqué et riche en fonctionnalités, spécialement conçu.
Appel asynchrone : Toutes les API peuvent être appelées de manière asynchrone
Outils pratiques : divers outils d'image et audio
API supportée :
llama.cpp hors ligne: Intégrez la bibliothèque llama.cpp pour exécuter hors ligne des modèles d'IA ! Prend également en charge les modèles multi-modaux (expérimental). Compatible avec Win64/Mac/Android/IOS. Prise en charge des GPU CUDA et METAL.
OpenAI: /chat/completions, /completions, /images/generations, /images/edits, /images/variations
Azure OpenAI : /chat/completions, /images/generations
Claude:/messages、/complete
Gémeaux : generateText, generateContent, streamGenerateContent
Ollama:/api/chat、/api/generate、/api/tags
Ollama:/api/chat、/api/generate、/api/tags
DeepSeek:/chat/completions
Instructions d'utilisation
Instructions d'utilisation - chapitre sur la feuille de route
(ue-插件-AIChatPlus-Usage-Source-GetStarted.md)
(ue-插件-AIChatPlus-Usage-EditorTool-GetStarted.md)
(ue-插件-AIChatPlus-Usage-Package-GetStarted.md)
Changer le journal
Support technique
Commentaire : N'hésitez pas à laisser un message dans la section des commentaires ci-dessous si vous avez des questions.
Email: Vous pouvez également m'envoyer un email à l'adresse suivante : disenonec@gmail.com
discord: Bientôt disponible
Original: https://wiki.disenone.site/fr
This post is protected by CC BY-NC-SA 4.0 agreement, should be reproduced with attribution.
Visitors. Total Visits. Page Visits.
Ce message a été traduit en utilisant ChatGPT, veuillez donner votre feedbackIdentifier toute omission possible.