콘텐츠로 이동

C++ 장 - 시작하기

핵심 코드 소개

현재 플러그인은 다음과 같은 모듈로 구성되어 있습니다:

AIChatPlusCommon: 런타임 모듈(Runtime)은 다양한 AI API 인터페이스 요청 및 응답 내용 구문 분석을 처리하는 역할을 담당합니다.

AIChatPlusEditor: 편집기 모듈(Editor), AI 채팅 도구를 구현하는 역할을 맡고 있습니다.

AIChatPlusCllama: Runtime 모듈은 llama.cpp의 인터페이스와 매개변수를 캡슐화하며 대규모 모델의 오프라인 실행을 구현합니다.

LLAMACpp를 통해 Thirdparty: llama.cpp의 런타임 서드파티 모듈이 통합되었습니다.

특정 요청을 보내는 UClass는 FAIChatPlus_xxxChatRequest이며, 각 API 서비스마다 별도의 Request UClass가 있습니다. 응답은 UAIChatPlus_ChatHandlerBase / UAIChatPlus_ImageHandlerBase 두 가지 UClass를 통해 받아들일 수 있으며, 해당 콜백 델리게이트만 등록하면 됩니다.

API의 매개변수 및 전송 메시지를 설정한 후 요청을 보내야 합니다. 이 부분은 FAIChatPlus_xxxChatRequestBody를 통해 설정됩니다. 응답 내용은 FAIChatPlus_xxxChatResponseBody로 구문 분석되며, 콜백을 받을 때 특정 인터페이스를 통해 ResponseBody를 가져올 수 있습니다.

해당 코드는 오프라인 모델 Cllama(llama.cpp)을 사용합니다.

해당 코드에서 오프라인 모델 llama.cpp을 사용하는 방법에 대한 설명입니다.

먼저, Content/LLAMA 폴더에 모델 파일을 다운로드해야 합니다.

코드를 수정해서 한 가지 명령을 추가하고 해당 명령에서 오프라인 모델에 메시지를 보내세요.

#include "Common/AIChatPlus_Log.h"
#include "Common_Cllama/AIChatPlus_CllamaChatRequest.h"

void AddTestCommand()
{
    IConsoleManager::Get().RegisterConsoleCommand(
        TEXT("AIChatPlus.TestChat"),
        TEXT("Test Chat."),
        FConsoleCommandDelegate::CreateLambda([]()
        {
            if (!FModuleManager::GetModulePtr<FAIChatPlusCommon>(TEXT("AIChatPlusCommon"))) return;

            TWeakObjectPtr<UAIChatPlus_ChatHandlerBase> HandlerObject = UAIChatPlus_ChatHandlerBase::New();
            // Cllama

            FAIChatPlus_CllamaChatRequestOptions Options;

            Options.ModelPath.FilePath = FPaths::ProjectContentDir() / "LLAMA" / "qwen1.5-1_8b-chat-q8_0.gguf";
            Options.NumPredict = 400;
            Options.bStream = true;
            // Options.StopSequences.Emplace(TEXT("json"));
            auto RequestPtr = UAIChatPlus_CllamaChatRequest::CreateWithOptionsAndMessages(

                Options,
                {
                    {"You are a chat bot", EAIChatPlus_ChatRole::System},
                    {"who are you", EAIChatPlus_ChatRole::User}
                });

            HandlerObject->BindChatRequest(RequestPtr);
            const FName ApiName = TEnumTraits<EAIChatPlus_ChatApiProvider>::ToName(RequestPtr->GetApiProvider());

            HandlerObject->OnMessage.AddLambda([ApiName](const FString& Message)
            {
                UE_LOG(AIChatPlus_Internal, Display, TEXT("TestChat[%s] Message: [%s]"), *ApiName.ToString(), *Message);
            });
            HandlerObject->OnStarted.AddLambda([ApiName]()
            {
                UE_LOG(AIChatPlus_Internal, Display, TEXT("TestChat[%s] RequestStarted"), *ApiName.ToString());
            });
            HandlerObject->OnFailed.AddLambda([ApiName](const FAIChatPlus_ResponseErrorBase& InError)
            {
                UE_LOG(AIChatPlus_Internal, Error, TEXT("TestChat[%s] RequestFailed: %s "), *ApiName.ToString(), *InError.GetDescription());
            });
            HandlerObject->OnUpdated.AddLambda([ApiName](const FAIChatPlus_ResponseBodyBase& ResponseBody)
            {
                UE_LOG(AIChatPlus_Internal, Display, TEXT("TestChat[%s] RequestUpdated"), *ApiName.ToString());
            });
            HandlerObject->OnFinished.AddLambda([ApiName](const FAIChatPlus_ResponseBodyBase& ResponseBody)
            {
                UE_LOG(AIChatPlus_Internal, Display, TEXT("TestChat[%s] RequestFinished"), *ApiName.ToString());
            });

            RequestPtr->SendRequest();
        }),
        ECVF_Default
    );
}

재 컴파일 후에는 편집기 Cmd에서 명령을 사용하여 OutputLog 로그에서 대형 모델의 결과를 볼 수 있습니다.

guide code

Original: https://wiki.disenone.site/ko

This post is protected by CC BY-NC-SA 4.0 agreement, should be reproduced with attribution.

이 포스트는 ChatGPT를 사용하여 번역되었습니다. 피드백모든 빠진 부분을 지적하십시오.