logo
当前页

配置大语言模型

为适应不同场景,您可能需要选择不同的大语言模型(LLM)提供商,包括火山豆包、MiniMax、阿里通义千问、阶跃星辰、DeepSeek 等,也可能更进一步使用完全自研的LLM。本文说明常见大语言模型厂商如何配置及相关注意事项。

LLM 参数说明

使用第三方 LLM 服务或者使用自定义的 LLM 服务时,需要配置 LLM 参数。

参数类型是否必填描述
UrlStringLLM 回调地址,必须与 OpenAI 协议兼容。
ApiKeyString访问 LLM 提供的各类模型及相关服务的身份验证凭证。
ModelString调用的模型。不同的 LLM 服务提供商支持的配置不同,请参考对应文档填入。
SystemPromptString系统提示词。可以是角色设定、提示词和回答样例等。
TemperatureFloat较高的值将使输出更加随机,而较低的值将使输出更加集中和确定。
TopPFloat采样方法,数值越小结果确定性越强;数值越大,结果越随机。
ParamsObject其他 LLM 参数,例如使用的最大 Token 数限制等。不同的 LLM 供应商支持的配置不同,请参考对应文档按需填入。
说明
参数名与各厂商 LLM 的参数名保持一致。
AddAgentInfoBool如果该值为 true ,在 AI Agent 后台向自定义 LLM 服务发起请求时,请求参数中会包含智能体信息 agent_info。该值默认为 false。在使用自定义 LLM 时可根据此参数内容做额外的业务逻辑。

使用第三方 LLM

说明

请先联系 ZEGO 技术支持开通第三方 LLM 服务,获取接入 Url 和 API Key。

第三方 LLM 需要兼容 OpenAI 协议。

您可以在注册智能体(RegisterAgent)或创建智能体实例(CreateAgentInstance)时设置 LLM 参数。

以下是常见 LLM 厂商的配置示例:

使用自定义 LLM

AI Agent 后台使用 OpenAI API 协议调用 LLM 服务。因此,您也可以使用任何兼容 OpenAI 协议的自定义 LLM。这里的自定义 LLM 甚至可以在底层实现的时候调用多个子 LLM 模型或者进行 RAG 搜索、联网搜索后再进行整合输出。

实现步骤如下:

1
创建符合 OpenAI API 协议的服务

提供一个兼容 platform.openai.com 的接口。关键点如下:

  • 接口路径:可以被 AI Agent 调用的 Url,例如 https://your-custom-llm-service/chat/completions
  • 请求格式:接受兼容 OpenAI 协议的请求头和请求体。
  • 响应格式:返回与 OpenAI 协议兼容、且符合 SSE 规范的流式响应数据。
注意

自定义 LLM 流式数据格式注意事项如下:

  • 每条数据必须以 data: 开头(注意冒号后有空格)。
  • 最后一个有效数据必须包含 "finish_reason":"stop"
  • 最后必须发送一条结束数据:data: [DONE]

如果格式不正确可能会导致智能体不输出或者输出不完整。

2
配置自定义 LLM

在注册智能体(RegisterAgent)或创建智能体实例(CreateAgentInstance)时,设置自定义 LLM 的配置。

Untitled
"LLM": {
    "Url": "https://your-custom-llm-service/chat/completions",
    "ApiKey": "your_api_key",
    "Model": "your_model",
    "SystemPrompt": "你是小智,成年女性,是**即构科技创造的陪伴助手**,上知天文下知地理,聪明睿智、热情友善。\n对话要求:1、按照人设要求与用户对话。\n2、不能超过100字。",
    "Temperature": 1,
    "TopP": 0.7,
    "Params": {
        "max_tokens": 1024
    }
}

1
Copied!

Previous

获取智能体服务状态

Next

主动调用 LLM 和 TTS