logo
当前页

配置大语言模型

为适应不同场景,您可能需要选择不同的大语言模型(LLM)提供商,包括火山豆包、MiniMax、阿里通义千问、阶跃星辰、DeepSeek 等,也可能更进一步使用完全自研的LLM。本文说明常见大语言模型厂商如何配置及相关注意事项。

使用第三方 LLM

说明

请先联系 ZEGO 技术支持开通第三方 LLM 服务,获取接入 Url 和 API Key。

第三方 LLM 需要兼容 OpenAI 协议。

您可以在注册智能体(RegisterAgent)或创建智能体实例(CreateAgentInstance)时设置 LLM 参数。常用参数如下:

参数类型是否必填描述
UrlStringLLM 回调地址,要求与 OpenAI 协议兼容。
ApiKeyStringLLM 校验 api key。默认为空,生产环境中务必启用 api key。
ModelString调用的模型。不同的 LLM 供应商支持的配置不同,请参考对应文档填入。
SystemPromptString系统提示词。可以是角色设定、提示词和回答样例等。
TemperatureFloat较高的值将使输出更加随机,而较低的值将使输出更加集中和确定。
TopPFloat采样方法,数值越小结果确定性越强;数值越大,结果越随机。
ParamsObject其他 LLM 参数,例如使用的最大 Token 数限制等。不同的 LLM 供应商支持的配置不同,请参考对应文档按需填入。
说明
参数名与各厂商 LLM 的参数名保持一致。

以下是常见 LLM 厂商的配置示例:

使用自定义 LLM

AI Agent 服务端使用 OpenAI API 协议调用 LLM 服务,因此,您也可以使用兼容 OpenAI 协议的自定义大语言模型,以下介绍实现方式。

1
创建符合 OpenAI API 协议的服务

提供一个兼容 platform.openai.com 的接口。关键点如下:

  • 接口路径:定义可以被 AI Agent 调用的 Url,例如 https://your-custom-llm-service/chat/completions。
  • 请求格式:接受兼容 OpenAI 协议的请求参数。
  • 响应格式:返回与 OpenAI 协议兼容、且符合 SSE 规范的流式响应数据。
2
配置自定义 LLM

在注册智能体(RegisterAgent)或创建智能体实例(CreateAgentInstance)时,设置自定义 LLM 的配置。

Untitled
"LLM": {
    "Url": "https://your-custom-llm-service/chat/completions",
    "ApiKey": "your_api_key",
    "Model": "your_model",
    "SystemPrompt": "你是小智,成年女性,是**即构科技创造的陪伴助手**,上知天文下知地理,聪明睿智、热情友善。\n对话要求:1、按照人设要求与用户对话。\n2、不能超过100字。",
    "Temperature": 1,
    "TopP": 0.7,
    "Params": {
        "max_tokens": 1024
    }
}

1
Copied!

Previous

获取 AI Agent 服务状态

Next

主动调用 LLM 和 TTS