实现数字人视频通话
本文档用于说明如何快速集成客户端 SDK (ZEGO Express SDK 和数字人 SDK)并实现与智能体进行视频互动。
数字人介绍
仅需一张上半身的真人或二次元的照片或图片,即可获得1080P、口型准确、形象逼真的数字人。通过搭配AI Agent产品使用,即可快速实现整体约 1.5s 的与AI数字人的视频互动聊天,适用于数字人 1V1 互动视频、数字人客服、数字人直播等多种场景。
更自然的驱动效果:支持轻微的身体动作,面部表情自然不变形,相较语音通话互动更真实沉浸;
多语种口型准确:唇形准确自然,尤其针对中英文效果更佳;
互动超低延迟:数字人驱动延迟 < 200ms,结合 AI Agent 互动延迟 < 1.5s;
更高清晰度:真实 1080P 效果,比传统图片数字人清晰度提高20%+
可跳转至下载页面 下载体验。
前提条件
已在 ZEGO 控制台 创建项目,并申请有效的 AppID 和 AppSign,详情请参考 控制台 - 项目信息 。
已联系 ZEGO 技术支持开通数字人 PaaS 服务和相关接口的权限。
已联系 ZEGO 技术支持创建数字人。
已从下载页面 下载针对 AI Agent 优化的 ZEGO Express SDK,并集成到您的项目中。
已联系 ZEGO 技术支持获取针对 AI Agent 优化的 ZEGO Express SDK,并集成到您的项目中。
示例代码
以下是接入实时互动 AI Agent API 的业务后台示例代码,您可以参考示例代码来实现自己的业务逻辑。
业务后台示例代码
包含最基本的获取 ZEGO Token、注册智能体、创建智能体实例、删除智能体实例等能力。
以下是客户端示例代码,,您可以参考示例代码来实现自己的业务逻辑。
Android 客户端示例代码
包含最基本的登录、推流、拉流、展示数字人、退出房间等能力。
iOS 客户端示例代码
包含最基本的登录、推流、拉流、展示数字人、退出房间等能力。
iOS 客户端示例代码
包含最基本的登录、推流、拉流、展示数字人、退出房间等能力。
以下视频演示了如何跑通服务端和客户端(Web)示例代码并跟智能体进行语音互动。
以下视频演示了如何跑通服务端和客户端(iOS)示例代码并跟智能体进行语音互动。
整体业务流程
服务端,参考业务后台快速开始 文档跑通业务后台示例代码,部署好业务后台
接入实时互动 AI Agent API 管理智能体。
完成以上两个步骤后即可实现将智能体加入房间并与真实用户进行实时互动。
核心能力实现
集成 ZEGO Express SDK
添加权限声明
进入 "app/src/main" 目录,打开 "AndroidManifest.xml" 文件,添加权限。
AndroidManifest.xml <uses-permission android:name="android.permission.ACCESS_NETWORK_STATE" />
<uses-permission android:name="android.permission.INTERNET" />
<uses-permission android:name="android.permission.RECORD_AUDIO" />
AndroidManifest.xml
<uses-permission android:name="android.permission.ACCESS_NETWORK_STATE" />
<uses-permission android:name="android.permission.INTERNET" />
<uses-permission android:name="android.permission.RECORD_AUDIO" />
运行时申请录音权限
private final ActivityResultLauncher<String> requestPermissionLauncher = registerForActivityResult(
new ActivityResultContracts.RequestPermission(), new ActivityResultCallback<Boolean>() {
@Override
public void onActivityResult(Boolean isGranted) {
if (isGranted) {
// 同意权限
}
}
});
//发起请求
requestPermissionLauncher.launch(Manifest.permission.RECORD_AUDIO);
private final ActivityResultLauncher<String> requestPermissionLauncher = registerForActivityResult(
new ActivityResultContracts.RequestPermission(), new ActivityResultCallback<Boolean>() {
@Override
public void onActivityResult(Boolean isGranted) {
if (isGranted) {
// 同意权限
}
}
});
//发起请求
requestPermissionLauncher.launch(Manifest.permission.RECORD_AUDIO);
创建并初始化 ZegoExpressEngine
ZegoEngineProfile zegoEngineProfile = new ZegoEngineProfile();
zegoEngineProfile.appID = ; // 从即构控制台获取的 appId
// !mark
zegoEngineProfile.scenario = ZegoScenario.HIGH_QUALITY_CHATROOM;
zegoEngineProfile.application = getApplication();
ZegoExpressEngine.createEngine(zegoEngineProfile, null);
ZegoEngineProfile zegoEngineProfile = new ZegoEngineProfile();
zegoEngineProfile.appID = ; // 从即构控制台获取的 appId
// !mark
zegoEngineProfile.scenario = ZegoScenario.HIGH_QUALITY_CHATROOM;
zegoEngineProfile.application = getApplication();
ZegoExpressEngine.createEngine(zegoEngineProfile, null);
在 Info.plist 文件声明必要的权限
Info.plist <?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE plist PUBLIC "-//Apple//DTD PLIST 1.0//EN" "http://www.apple.com/DTDs/PropertyList-1.0.dtd">
<plist version="1.0">
<dict>
...
<key>UIBackgroundModes</key>
<array>
<string>audio</string>
</array>
<key>NSMicrophoneUsageDescription</key>
<string>需要访问麦克风以进行语音聊天</string>
</dict>
</plist>
Info.plist
<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE plist PUBLIC "-//Apple//DTD PLIST 1.0//EN" "http://www.apple.com/DTDs/PropertyList-1.0.dtd">
<plist version="1.0">
<dict>
...
<key>UIBackgroundModes</key>
<array>
<string>audio</string>
</array>
<key>NSMicrophoneUsageDescription</key>
<string>需要访问麦克风以进行语音聊天</string>
</dict>
</plist>
运行时申请录音权限
- (void)requestAudioPermission:(void(^)(BOOL granted))completion {
/// 需要在项目的 Info.plist 文件中添加麦克风权限的使用说明
AVAudioSession *audioSession = [AVAudioSession sharedInstance];
[audioSession requestRecordPermission:^(BOOL granted) {
dispatch_async(dispatch_get_main_queue(), ^{
completion(granted);
});
}];
}
- (void)requestAudioPermission:(void(^)(BOOL granted))completion {
/// 需要在项目的 Info.plist 文件中添加麦克风权限的使用说明
AVAudioSession *audioSession = [AVAudioSession sharedInstance];
[audioSession requestRecordPermission:^(BOOL granted) {
dispatch_async(dispatch_get_main_queue(), ^{
completion(granted);
});
}];
}
创建并初始化 ZegoExpressEngine
-(void)initZegoExpressEngine{
ZegoEngineProfile* profile = [[ZegoEngineProfile alloc]init];
profile.appID = kZegoPassAppId;
// !mark
profile.scenario = ZegoScenarioHighQualityChatroom; //设置该场景可以避免申请相机权限,接入方应按自己的业务场景设置具体值
[ZegoExpressEngine createEngineWithProfile:profile eventHandler:self];
}
-(void)initZegoExpressEngine{
ZegoEngineProfile* profile = [[ZegoEngineProfile alloc]init];
profile.appID = kZegoPassAppId;
// !mark
profile.scenario = ZegoScenarioHighQualityChatroom; //设置该场景可以避免申请相机权限,接入方应按自己的业务场景设置具体值
[ZegoExpressEngine createEngineWithProfile:profile eventHandler:self];
}
进入 android/app/src/main 目录,打开 AndroidManifest.xml 文件,添加权限
AndroidManifest.xml <uses-permission android:name="android.permission.RECORD_AUDIO" />
<uses-permission android:name="android.permission.MODIFY_AUDIO_SETTINGS" />
<uses-permission android:name="android.permission.INTERNET" />
<uses-permission android:name="android.permission.BLUETOOTH" />
<uses-permission android:name="android.permission.ACCESS_WIFI_STATE" />
<uses-permission android:name="android.permission.ACCESS_NETWORK_STATE" />
AndroidManifest.xml
<uses-permission android:name="android.permission.RECORD_AUDIO" />
<uses-permission android:name="android.permission.MODIFY_AUDIO_SETTINGS" />
<uses-permission android:name="android.permission.INTERNET" />
<uses-permission android:name="android.permission.BLUETOOTH" />
<uses-permission android:name="android.permission.ACCESS_WIFI_STATE" />
<uses-permission android:name="android.permission.ACCESS_NETWORK_STATE" />
进入 ios/Runner 目录,打开 Info.plist 文件,添加权限
Info.plist <?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE plist PUBLIC "-//Apple//DTD PLIST 1.0//EN" "http://www.apple.com/DTDs/PropertyList-1.0.dtd">
<plist version="1.0">
<dict>
...
<key>UIBackgroundModes</key>
<array>
<string>audio</string>
</array>
<key>NSMicrophoneUsageDescription</key>
<string>需要访问麦克风以进行语音聊天</string>
</dict>
</plist>
Info.plist
<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE plist PUBLIC "-//Apple//DTD PLIST 1.0//EN" "http://www.apple.com/DTDs/PropertyList-1.0.dtd">
<plist version="1.0">
<dict>
...
<key>UIBackgroundModes</key>
<array>
<string>audio</string>
</array>
<key>NSMicrophoneUsageDescription</key>
<string>需要访问麦克风以进行语音聊天</string>
</dict>
</plist>
进入 ios 目录,打开 Podfile 文件,添加权限
Podfile post_install do |installer|
installer.pods_project.targets.each do |target|
flutter_additional_ios_build_settings(target)
<!-- !mark(1:8) -->
# Start of the permission_handler configuration
target.build_configurations.each do |config|
config.build_settings['GCC_PREPROCESSOR_DEFINITIONS'] ||= [
'$(inherited)',
'PERMISSION_MICROPHONE=1',
]
end
# End of the permission_handler configuration
end
end
Podfile
post_install do |installer|
installer.pods_project.targets.each do |target|
flutter_additional_ios_build_settings(target)
<!-- !mark(1:8) -->
# Start of the permission_handler configuration
target.build_configurations.each do |config|
config.build_settings['GCC_PREPROCESSOR_DEFINITIONS'] ||= [
'$(inherited)',
'PERMISSION_MICROPHONE=1',
]
end
# End of the permission_handler configuration
end
end
运行时申请麦克风权限
import 'package:permission_handler/permission_handler.dart';
void main() {
WidgetsFlutterBinding.ensureInitialized();
Permission.microphone.request().then((status) {
runApp(const MyApp());
});
}
import 'package:permission_handler/permission_handler.dart';
void main() {
WidgetsFlutterBinding.ensureInitialized();
Permission.microphone.request().then((status) {
runApp(const MyApp());
});
}
创建并初始化 ZegoExpressEngine
await ZegoExpressEngine.createEngineWithProfile(
/// 设置该场景可以避免申请相机权限,接入方应按自己的业务场景设置具体值
// !mark
ZegoEngineProfile(ZegoKey.appId, ZegoScenario.HighQualityChatroom),
);
await ZegoExpressEngine.createEngineWithProfile(
/// 设置该场景可以避免申请相机权限,接入方应按自己的业务场景设置具体值
// !mark
ZegoEngineProfile(ZegoKey.appId, ZegoScenario.HighQualityChatroom),
);
请参考 集成 SDK > 方式 1 使用 npm 集成 SDK v3.9.123或更高版本。集成 SDK 后按以下步骤初始化 ZegoExpressEngine。
2 检查系统要求(WebRTC 支持和麦克风权限)
import { ZegoExpressEngine } from "zego-express-engine-webrtc";
const appID = 1234567 // 从即构控制台获取
const server = 'xxx' // 从即构控制台获取
// 实例化 ZegoExpressEngine传入appId和server等配置
// !mark
const zg = new ZegoExpressEngine(appID, server);
// 检查系统要求
// !mark
const checkSystemRequirements = async () => {
// 检测是否支持webRTC
const rtc_sup = await zg.checkSystemRequirements("webRTC");
if (!rtc_sup.result) {
// 浏览器不支持webrtc
}
// 检测是否开启麦克风权限
const mic_sup = await zg.checkSystemRequirements("microphone");
if (!mic_sup.result) {
// 未开启麦克风权限
}
}
checkSystemRequirements()
import { ZegoExpressEngine } from "zego-express-engine-webrtc";
const appID = 1234567 // 从即构控制台获取
const server = 'xxx' // 从即构控制台获取
// 实例化 ZegoExpressEngine传入appId和server等配置
// !mark
const zg = new ZegoExpressEngine(appID, server);
// 检查系统要求
// !mark
const checkSystemRequirements = async () => {
// 检测是否支持webRTC
const rtc_sup = await zg.checkSystemRequirements("webRTC");
if (!rtc_sup.result) {
// 浏览器不支持webrtc
}
// 检测是否开启麦克风权限
const mic_sup = await zg.checkSystemRequirements("microphone");
if (!mic_sup.result) {
// 未开启麦克风权限
}
}
checkSystemRequirements()
集成数字人 SDK
数字人 SDK 已经发布在 maven 仓库,可参考以下代码集成 SDK 进项目。
添加 `maven` 配置
根据您的 Android Gradle 插件版本,选择对应的实现步骤。
修改您的 app 级别的 `build.gradle` 文件
dependencies {
...
// 数字人 SDK 依赖
implementation "im.zego:digitalmobile:1.2.0.12"
}
dependencies {
...
// 数字人 SDK 依赖
implementation "im.zego:digitalmobile:1.2.0.12"
}
集成数字人 SDK
解压SDK
将 SDK 包解压至项目目录下,例如 “libs” 文件夹下。
选择 “TARGETS > General > Frameworks,Libraries,and Embedded Content” 菜单,添加 ZegoDigitalMobile.xcframework”,将 “Embed” 设置为 “Embed & Sign”。
通知业务后台开始通话
可在客户端真实用户进入房间后立即通知业务后台开始通话,异步调用可加降低通话接通时间。业务后台收到开始通话通知后,使用与客户端相同的 roomID 及关联的 userID 和 streamID 创建数字人智能体实例,这样数字人智能体就能与真实用户在同一个房间内进行相互推拉流实现视频互动。
请求业务后台的时候需要带上数字人参数,参数包括 digital_human_id 和 config_id 。
digital_human_id : 数字人 ID,请联系 ZEGO 技术支持获取。测试时可使用公共 ID :c4b56d5c-db98-4d91-86d4-5a97b507da97。
config_id : 数字人的配置 ID,不同平台使用不同的数字人配置, 数字人服务会根据 config_id 优化不同平台上的性能和效果,Android/iOS 请填写 mobile
,Web 请填写 web
。
默认情况下一个账号下最多同时存在 10 个数字人智能体实例,超过限制后创建数字人智能体实例会失败,如需调整请联系 ZEGO 商务。
以下示例在通知业务后台开始通话时,并没有传递 roomID、userID、streamID 等参数,是因为本示例客户端与业务后台约定好了固定值。实际使用时,请根据业务需求传递对应的参数。
// 通知业务后台开始通话
private void start() {
String jsonContent;
try {
JSONObject jsonObject = new JSONObject();
jsonObject.put("digital_human_id", Constant.digital_human_id); // 替换为实际的 数字人 ID
jsonObject.put("config_id", "mobile");
jsonContent = jsonObject.toString();
} catch (JSONException e) {
return;
}
RequestBody body = RequestBody.create(jsonContent, MediaType.parse("application/json; charset=utf-8"));
Request request = new Request.Builder().url(Constant.BASE_URL + "/api/start-digital-human").post(body).build();
new OkHttpClient.Builder().build().newCall(request).enqueue(new Callback() {
@Override
public void onFailure(@NonNull Call call, @NonNull IOException e) {
}
@Override
public void onResponse(@NonNull Call call, @NonNull Response response) throws IOException {
if (response.isSuccessful()) {
String responseBody = response.body().string();
try {
JSONObject json = new JSONObject(responseBody);
int errorCode = (int) json.get("code");
String digitalHumanConfig = (String) json.get("digital_human_config"); // 初始化数字人 sdk 需要使用
if (errorCode == 0) {
// 初始化数字人 SDK...
}
} catch (JSONException e) {
}
}
}
});
}
// 通知业务后台开始通话
private void start() {
String jsonContent;
try {
JSONObject jsonObject = new JSONObject();
jsonObject.put("digital_human_id", Constant.digital_human_id); // 替换为实际的 数字人 ID
jsonObject.put("config_id", "mobile");
jsonContent = jsonObject.toString();
} catch (JSONException e) {
return;
}
RequestBody body = RequestBody.create(jsonContent, MediaType.parse("application/json; charset=utf-8"));
Request request = new Request.Builder().url(Constant.BASE_URL + "/api/start-digital-human").post(body).build();
new OkHttpClient.Builder().build().newCall(request).enqueue(new Callback() {
@Override
public void onFailure(@NonNull Call call, @NonNull IOException e) {
}
@Override
public void onResponse(@NonNull Call call, @NonNull Response response) throws IOException {
if (response.isSuccessful()) {
String responseBody = response.body().string();
try {
JSONObject json = new JSONObject(responseBody);
int errorCode = (int) json.get("code");
String digitalHumanConfig = (String) json.get("digital_human_config"); // 初始化数字人 sdk 需要使用
if (errorCode == 0) {
// 初始化数字人 SDK...
}
} catch (JSONException e) {
}
}
}
});
}
// 通知业务后台开始通话
/**
* 开始与AI智能体进行通话
*
* @param completion 完成回调,返回操作结果
* @discussion 该方法会向服务器发送开始通话的请求,用于初始化AI智能体实例
*/
- (void)doStartCallWithCompletion:(void (^)(NSInteger code, NSString *message, NSDictionary *data))completion {
// 构建请求URL
NSString *url = [NSString stringWithFormat:@"%@/api/start-digital-human", self.currentBaseURL];
NSURL *requestURL = [NSURL URLWithString:url];
// 创建请求
NSMutableURLRequest *request = [[NSMutableURLRequest alloc] initWithURL:requestURL];
request.HTTPMethod = @"POST";
// 设置请求头
[request setValue:@"application/json" forHTTPHeaderField:@"Content-Type"];
// 创建请求参数
NSMutableDictionary *params = [NSMutableDictionary dictionary];
NSData *jsonData = [NSJSONSerialization dataWithJSONObject:params options:0 error:nil];
request.HTTPBody = jsonData;
// 创建会话
NSURLSession *session = [NSURLSession sharedSession];
// 发送请求
NSURLSessionDataTask *task = [session dataTaskWithRequest:request
completionHandler:^(NSData * _Nullable data,
NSURLResponse * _Nullable response,
NSError * _Nullable error) {
dispatch_async(dispatch_get_main_queue(), ^{
if (error) {
if (completion) {
completion(-1, @"网络请求失败", nil);
}
return;
}
NSHTTPURLResponse *httpUrlResponse = (NSHTTPURLResponse *)response;
if (httpUrlResponse.statusCode != 200) {
if (completion) {
completion(httpUrlResponse.statusCode,
[NSString stringWithFormat:@"服务器错误: %ld", (long)httpUrlResponse.statusCode],
nil);
}
return;
}
NSError *jsonError;
NSDictionary *dict = [NSJSONSerialization JSONObjectWithData:data options:0 error:&jsonError];
if (jsonError) {
if (completion) {
completion(-2, @"解析响应数据失败", nil);
}
return;
}
// 解析响应数据
NSInteger code = [dict[@"code"] integerValue];
NSString *message = dict[@"message"];
NSDictionary *responseData = dict[@"data"];
if (completion) {
completion(code, message, responseData);
}
});
}];
[task resume];
}
// 通知业务后台开始通话
/**
* 开始与AI智能体进行通话
*
* @param completion 完成回调,返回操作结果
* @discussion 该方法会向服务器发送开始通话的请求,用于初始化AI智能体实例
*/
- (void)doStartCallWithCompletion:(void (^)(NSInteger code, NSString *message, NSDictionary *data))completion {
// 构建请求URL
NSString *url = [NSString stringWithFormat:@"%@/api/start-digital-human", self.currentBaseURL];
NSURL *requestURL = [NSURL URLWithString:url];
// 创建请求
NSMutableURLRequest *request = [[NSMutableURLRequest alloc] initWithURL:requestURL];
request.HTTPMethod = @"POST";
// 设置请求头
[request setValue:@"application/json" forHTTPHeaderField:@"Content-Type"];
// 创建请求参数
NSMutableDictionary *params = [NSMutableDictionary dictionary];
NSData *jsonData = [NSJSONSerialization dataWithJSONObject:params options:0 error:nil];
request.HTTPBody = jsonData;
// 创建会话
NSURLSession *session = [NSURLSession sharedSession];
// 发送请求
NSURLSessionDataTask *task = [session dataTaskWithRequest:request
completionHandler:^(NSData * _Nullable data,
NSURLResponse * _Nullable response,
NSError * _Nullable error) {
dispatch_async(dispatch_get_main_queue(), ^{
if (error) {
if (completion) {
completion(-1, @"网络请求失败", nil);
}
return;
}
NSHTTPURLResponse *httpUrlResponse = (NSHTTPURLResponse *)response;
if (httpUrlResponse.statusCode != 200) {
if (completion) {
completion(httpUrlResponse.statusCode,
[NSString stringWithFormat:@"服务器错误: %ld", (long)httpUrlResponse.statusCode],
nil);
}
return;
}
NSError *jsonError;
NSDictionary *dict = [NSJSONSerialization JSONObjectWithData:data options:0 error:&jsonError];
if (jsonError) {
if (completion) {
completion(-2, @"解析响应数据失败", nil);
}
return;
}
// 解析响应数据
NSInteger code = [dict[@"code"] integerValue];
NSString *message = dict[@"message"];
NSDictionary *responseData = dict[@"data"];
if (completion) {
completion(code, message, responseData);
}
});
}];
[task resume];
}
// 通知业务后台开始通话
Future<Map<String, dynamic>> startCall() async {
try {
final response = await http.post(
Uri.parse('$_currentBaseUrl/api/start-digital-human'),
headers: {'Content-Type': 'application/json'},
);
if (response.statusCode == 200) {
final json = jsonDecode(response.body);
return json;
}
return {'code': -1, 'message': '请求失败'};
} catch (e) {
return {'code': -1, 'message': e.toString()};
}
}
// 通知业务后台开始通话
Future<Map<String, dynamic>> startCall() async {
try {
final response = await http.post(
Uri.parse('$_currentBaseUrl/api/start-digital-human'),
headers: {'Content-Type': 'application/json'},
);
if (response.statusCode == 200) {
final json = jsonDecode(response.body);
return json;
}
return {'code': -1, 'message': '请求失败'};
} catch (e) {
return {'code': -1, 'message': e.toString()};
}
}
// 通知业务后台开始通话
async function startCall() {
try {
const response = await fetch(`${YOUR_SERVER_URL}/api/start-digital-human`, { // YOUR_SERVER_URL 为您的业务后台地址
method: 'POST',
headers: {
'Content-Type': 'application/json',
}
});
const data = await response.json();
console.log('开始通话结果:', data);
return data;
} catch (error) {
console.error('开始通话失败:', error);
throw error;
}
}
// 通知业务后台开始通话
async function startCall() {
try {
const response = await fetch(`${YOUR_SERVER_URL}/api/start-digital-human`, { // YOUR_SERVER_URL 为您的业务后台地址
method: 'POST',
headers: {
'Content-Type': 'application/json',
}
});
const data = await response.json();
console.log('开始通话结果:', data);
return data;
} catch (error) {
console.error('开始通话失败:', error);
throw error;
}
}
初始化数字人 SDK 实例
需要先在 android 布局文件中添加数字人预览 view,数字人画面会渲染到该视图上。
<im.zego.digitalmobile.ZegoPreviewView
android:id="@+id/preview_view"
android:layout_width="match_parent"
android:layout_height="match_parent" />
<im.zego.digitalmobile.ZegoPreviewView
android:id="@+id/preview_view"
android:layout_width="match_parent"
android:layout_height="match_parent" />
String digitalHumanConfig = xxx; // 数字人配置,从业务后台创建数字人智能体实例接口返回的 DigitalHumanConfig 中获取
IZegoDigitalMobile digitalMobile = ZegoDigitalMobileFactory.create(this); // 创建数字人 SDK 实例,可以创建多个实例显示不同的数字人
digitalMobile.start(digitalHumanConfig, null); // 初始化数字人 SDK 实例,传入数字人配置
digitalMobile.attach(previewView); // 绑定上面创建的预览 view,数字人会渲染到该 view 上
String digitalHumanConfig = xxx; // 数字人配置,从业务后台创建数字人智能体实例接口返回的 DigitalHumanConfig 中获取
IZegoDigitalMobile digitalMobile = ZegoDigitalMobileFactory.create(this); // 创建数字人 SDK 实例,可以创建多个实例显示不同的数字人
digitalMobile.start(digitalHumanConfig, null); // 初始化数字人 SDK 实例,传入数字人配置
digitalMobile.attach(previewView); // 绑定上面创建的预览 view,数字人会渲染到该 view 上
初始化数字人 SDK 实例
需要先在 View 中添加数字人预览 view,数字人会渲染到该视图上。
声明数字人实例和View
#import <ZegoDigitalMobile/ZegoDigitalMobile.h>
// 数字人 SDK 实例,可以创建多个实例显示不同的数字人
@property (nonatomic, strong) id<IZegoDigitalMobile> digitalMobile;
// 数字人预览 view,数字人会渲染到该 view 上
@property (nonatomic, strong) ZegoPreviewView *previewView;
#import <ZegoDigitalMobile/ZegoDigitalMobile.h>
// 数字人 SDK 实例,可以创建多个实例显示不同的数字人
@property (nonatomic, strong) id<IZegoDigitalMobile> digitalMobile;
// 数字人预览 view,数字人会渲染到该 view 上
@property (nonatomic, strong) ZegoPreviewView *previewView;
创建并添加previewView
- (void)setupPreviewView {
self.previewView = [[ZegoPreviewView alloc] init];
self.previewView.backgroundColor = [UIColor whiteColor];
[self.view addSubview:self.previewView];
[self.previewView mas_makeConstraints:^(MASConstraintMaker *make) {
make.edges.equalTo(self.view);
}];
}
- (void)setupPreviewView {
self.previewView = [[ZegoPreviewView alloc] init];
self.previewView.backgroundColor = [UIColor whiteColor];
[self.view addSubview:self.previewView];
[self.previewView mas_makeConstraints:^(MASConstraintMaker *make) {
make.edges.equalTo(self.view);
}];
}
初始化数字人 SDK 实例和绑定渲染View
// 创建数字人 SDK 实例
self.digitalMobile = [ZegoDigitalMobileFactory create];
// 数字人配置,从业务后台创建数字人智能体实例接口返回的 DigitalHumanConfig 中获取
NSString *digitalHumanEncodeConfig = @"";
// 初始化数字人 SDK 实例,传入数字人配置
[self.digitalMobile start:digitalHumanEncodeConfig delegate:self];
// 绑定上面创建的预览 view,数字人会渲染到该 view 上
[self.digitalMobile attach:self.previewView];
// 创建数字人 SDK 实例
self.digitalMobile = [ZegoDigitalMobileFactory create];
// 数字人配置,从业务后台创建数字人智能体实例接口返回的 DigitalHumanConfig 中获取
NSString *digitalHumanEncodeConfig = @"";
// 初始化数字人 SDK 实例,传入数字人配置
[self.digitalMobile start:digitalHumanEncodeConfig delegate:self];
// 绑定上面创建的预览 view,数字人会渲染到该 view 上
[self.digitalMobile attach:self.previewView];
将 Express 数据同步给数字人 SDK
数字人 SDK 渲染画面时依赖 ZEGO Express SDK 的视频帧和 SEI 数据,所以需要开启 ZEGO Express SDK 的自定义视频渲染能力并且将 ZEGO Express SDK 的视频帧和 SEI 数据同步给数字人 SDK。
开启 ZEGO Express SDK 自定义视频渲染能力需要在调用 ZEGO Express SDK startPublishingStream
、startPlayingStream
接口之前设置,否则无效。
Express // 开启 Express 自定义渲染
ZegoCustomVideoRenderConfig renderConfig = new ZegoCustomVideoRenderConfig();
renderConfig.bufferType = ZegoVideoBufferType.RAW_DATA;
renderConfig.frameFormatSeries = ZegoVideoFrameFormatSeries.RGB;
renderConfig.enableEngineRender = false;
ZegoExpressEngine.getEngine().enableCustomVideoRender(true, renderConfig);
// 监听视频帧回调
ZegoExpressEngine.getEngine().setCustomVideoRenderHandler(new IZegoCustomVideoRenderHandler() {
@Override
public void onRemoteVideoFrameRawData(ByteBuffer[] data, int[] dataLength, ZegoVideoFrameParam param,
String streamID) {
IZegoDigitalMobile.ZegoVideoFrameParam digitalParam = new IZegoDigitalMobile.ZegoVideoFrameParam();
digitalParam.format = IZegoDigitalMobile.ZegoVideoFrameFormat.getZegoVideoFrameFormat(param.format.value());
digitalParam.height = param.height;
digitalParam.width = param.width;
digitalParam.rotation = param.rotation;
for (int i = 0; i < 4; i++) {
digitalParam.strides[i] = param.strides[i];
}
// 把 Express 视频帧数据传给数字人 SDK
digitalMobile.onRemoteVideoFrameRawData(data, dataLength, digitalParam, streamID);
}
});
// 监听 Express SEI 数据
ZegoExpressEngine.getEngine().setEventHandler(new IZegoEventHandler() {
@Override
public void onPlayerSyncRecvSEI(String streamID, byte[] data) {
// 把 Express SEI 数据传给数字人 SDK
digitalMobile.onPlayerSyncRecvSEI(streamID, data);
}
});
Express
// 开启 Express 自定义渲染
ZegoCustomVideoRenderConfig renderConfig = new ZegoCustomVideoRenderConfig();
renderConfig.bufferType = ZegoVideoBufferType.RAW_DATA;
renderConfig.frameFormatSeries = ZegoVideoFrameFormatSeries.RGB;
renderConfig.enableEngineRender = false;
ZegoExpressEngine.getEngine().enableCustomVideoRender(true, renderConfig);
// 监听视频帧回调
ZegoExpressEngine.getEngine().setCustomVideoRenderHandler(new IZegoCustomVideoRenderHandler() {
@Override
public void onRemoteVideoFrameRawData(ByteBuffer[] data, int[] dataLength, ZegoVideoFrameParam param,
String streamID) {
IZegoDigitalMobile.ZegoVideoFrameParam digitalParam = new IZegoDigitalMobile.ZegoVideoFrameParam();
digitalParam.format = IZegoDigitalMobile.ZegoVideoFrameFormat.getZegoVideoFrameFormat(param.format.value());
digitalParam.height = param.height;
digitalParam.width = param.width;
digitalParam.rotation = param.rotation;
for (int i = 0; i < 4; i++) {
digitalParam.strides[i] = param.strides[i];
}
// 把 Express 视频帧数据传给数字人 SDK
digitalMobile.onRemoteVideoFrameRawData(data, dataLength, digitalParam, streamID);
}
});
// 监听 Express SEI 数据
ZegoExpressEngine.getEngine().setEventHandler(new IZegoEventHandler() {
@Override
public void onPlayerSyncRecvSEI(String streamID, byte[] data) {
// 把 Express SEI 数据传给数字人 SDK
digitalMobile.onPlayerSyncRecvSEI(streamID, data);
}
});
Express - (BOOL)enableCustomVideoRender {
// 自定义渲染
ZegoCustomVideoRenderConfig *renderConfig =
[[ZegoCustomVideoRenderConfig alloc] init];
// 选择 RawData 类型视频帧数据
renderConfig.bufferType = ZegoVideoBufferTypeRawData;
// 选择 RGB 色系数据格式
renderConfig.frameFormatSeries = ZegoVideoFrameFormatSeriesRGB;
// 指定在自定义视频渲染的同时引擎也渲染
renderConfig.enableEngineRender = NO;
ZegoExpressEngine *engine = [ZegoExpressEngine sharedEngine];
if (!engine) {
return NO;
}
[engine enableCustomVideoRender:YES config:renderConfig];
[engine setCustomVideoRenderHandler:self];
return YES;
}
#pragma mark - ZegoEventHandler
- (void)onRemoteVideoFrameRawData:(unsigned char **)data
dataLength:(unsigned int *)dataLength
param:(ZegoVideoFrameParam *)param
streamID:(NSString *)streamID {
// 转换参数格式
ZDMVideoFrameParam *digitalParam = [[ZDMVideoFrameParam alloc] init];
digitalParam.format = (ZDMVideoFrameFormat)param.format;
digitalParam.width = param.size.width;
digitalParam.height = param.size.height;
digitalParam.rotation = param.rotation;
for (int i = 0; i < 4; i++) {
[digitalParam setStride: param.strides[i] atIndex:i];
}
// 遍历所有数字人API进行数据回调
for (id<IZegoDigitalMobile> digitalMobile in self.digitalMobileArray) {
[digitalMobile onRemoteVideoFrameRawData:data dataLength:dataLength param:digitalParam streamID:streamID];
}
}
- (void)onPlayerSyncRecvSEI:(NSData *)data streamID:(NSString *)streamID{
// 遍历所有数字人API进行SEI数据回调
for (id<IZegoDigitalMobile> digitalMobile in self.digitalMobileArray) {
[digitalMobile onPlayerSyncRecvSEI:streamID data:data];
}
}
Express
- (BOOL)enableCustomVideoRender {
// 自定义渲染
ZegoCustomVideoRenderConfig *renderConfig =
[[ZegoCustomVideoRenderConfig alloc] init];
// 选择 RawData 类型视频帧数据
renderConfig.bufferType = ZegoVideoBufferTypeRawData;
// 选择 RGB 色系数据格式
renderConfig.frameFormatSeries = ZegoVideoFrameFormatSeriesRGB;
// 指定在自定义视频渲染的同时引擎也渲染
renderConfig.enableEngineRender = NO;
ZegoExpressEngine *engine = [ZegoExpressEngine sharedEngine];
if (!engine) {
return NO;
}
[engine enableCustomVideoRender:YES config:renderConfig];
[engine setCustomVideoRenderHandler:self];
return YES;
}
#pragma mark - ZegoEventHandler
- (void)onRemoteVideoFrameRawData:(unsigned char **)data
dataLength:(unsigned int *)dataLength
param:(ZegoVideoFrameParam *)param
streamID:(NSString *)streamID {
// 转换参数格式
ZDMVideoFrameParam *digitalParam = [[ZDMVideoFrameParam alloc] init];
digitalParam.format = (ZDMVideoFrameFormat)param.format;
digitalParam.width = param.size.width;
digitalParam.height = param.size.height;
digitalParam.rotation = param.rotation;
for (int i = 0; i < 4; i++) {
[digitalParam setStride: param.strides[i] atIndex:i];
}
// 遍历所有数字人API进行数据回调
for (id<IZegoDigitalMobile> digitalMobile in self.digitalMobileArray) {
[digitalMobile onRemoteVideoFrameRawData:data dataLength:dataLength param:digitalParam streamID:streamID];
}
}
- (void)onPlayerSyncRecvSEI:(NSData *)data streamID:(NSString *)streamID{
// 遍历所有数字人API进行SEI数据回调
for (id<IZegoDigitalMobile> digitalMobile in self.digitalMobileArray) {
[digitalMobile onPlayerSyncRecvSEI:streamID data:data];
}
}
用户进入房间并推流
真实用户登录房间后推流。
在此场景下需要开启 AI 回声消除以获得更好的效果。
登录用的 token 需要从您的业务后台获取,请参考完整示例代码。
请确保 roomID、userID、streamID 在一个 ZEGO APPID 下是唯一的。
roomID: 由用户自己定义生成规则,会用来登录 Express SDK 的房间。仅支持数字,英文字符 和 '~', '!', '@', '#', '$', '%', '^', '&', '*', '(', ')', '_', '+', '=', '-', '`', ';', '’', ',', '.', '<', '>', ''。如果需要与 Web SDK 互通,请不要使用 '%'。
userID: 长度不超过32字节。仅支持数字,英文字符 和 '~', '!', '@', '#', '$', '%', '^', '&', '*', '(', ')', '_', '+', '=', '-', '`', ';', '’', ',', '.', '<', '>', ''。如果需要与 Web SDK 互通,请不要使用 '%'。
streamID: 长度不超过256字节。仅支持数字,英文字符 和 '-', '_'。
客户端登录房间并推流 private void loginRoom(String userId, String userName, String userName, String token,
IZegoRoomLoginCallback callback) {
// !mark
ZegoEngineConfig config = new ZegoEngineConfig();
HashMap<String, String> advanceConfig = new HashMap<String, String>();
// !mark(1:4)
advanceConfig.put("set_audio_volume_ducking_mode", "1");
advanceConfig.put("enable_rnd_volume_adaptive", "true");
advanceConfig.put("sideinfo_callback_version", "3");
advanceConfig.put("sideinfo_bound_to_video_decoder", "true");
config.advancedConfig = advanceConfig;
ZegoExpressEngine.setEngineConfig(config);
ZegoExpressEngine.getEngine().setRoomScenario(ZegoScenario.HIGH_QUALITY_CHATROOM);
ZegoExpressEngine.getEngine().setAudioDeviceMode(ZegoAudioDeviceMode.GENERAL);
// !mark(1:6)
ZegoExpressEngine.getEngine().enableAEC(true);
//开启 AI 回声消除
ZegoExpressEngine.getEngine().setAECMode(ZegoAECMode.AI_BALANCED);
ZegoExpressEngine.getEngine().enableAGC(true);
ZegoExpressEngine.getEngine().enableANS(true);
ZegoExpressEngine.getEngine().setANSMode(ZegoANSMode.MEDIUM);
ZegoRoomConfig roomConfig = new ZegoRoomConfig();
roomConfig.isUserStatusNotify = true;
roomConfig.token = token; // 需要 token 鉴权,从您的业务后台获取,生成方式请参考ZEGO官网文档
String roomId ; // 自定义用来登录的房间的Id,格式请参考说明
String userSteamID // 自定义用于推流的流Id,格式请参考说明
// !mark(1:2)
ZegoExpressEngine.getEngine()
.loginRoom(roomId, new ZegoUser(userId, userName), roomConfig, (errorCode, extendedData) -> {
Timber.d(
"loginRoom() called with: errorCode = [" + errorCode + "], extendedData = [" + extendedData + "]");
if (errorCode == 0) {
// 登录成功以后进行推流
ZegoExpressEngine.getEngine().startPublishingStream(userSteamID);
// 设置麦克风静音状态,false 表示不静音,true 表示静音
ZegoExpressEngine.getEngine().muteMicrophone(false);
}
if (callback != null) {
callback.onRoomLoginResult(errorCode, extendedData);
}
});
}
客户端登录房间并推流
private void loginRoom(String userId, String userName, String userName, String token,
IZegoRoomLoginCallback callback) {
// !mark
ZegoEngineConfig config = new ZegoEngineConfig();
HashMap<String, String> advanceConfig = new HashMap<String, String>();
// !mark(1:4)
advanceConfig.put("set_audio_volume_ducking_mode", "1");
advanceConfig.put("enable_rnd_volume_adaptive", "true");
advanceConfig.put("sideinfo_callback_version", "3");
advanceConfig.put("sideinfo_bound_to_video_decoder", "true");
config.advancedConfig = advanceConfig;
ZegoExpressEngine.setEngineConfig(config);
ZegoExpressEngine.getEngine().setRoomScenario(ZegoScenario.HIGH_QUALITY_CHATROOM);
ZegoExpressEngine.getEngine().setAudioDeviceMode(ZegoAudioDeviceMode.GENERAL);
// !mark(1:6)
ZegoExpressEngine.getEngine().enableAEC(true);
//开启 AI 回声消除
ZegoExpressEngine.getEngine().setAECMode(ZegoAECMode.AI_BALANCED);
ZegoExpressEngine.getEngine().enableAGC(true);
ZegoExpressEngine.getEngine().enableANS(true);
ZegoExpressEngine.getEngine().setANSMode(ZegoANSMode.MEDIUM);
ZegoRoomConfig roomConfig = new ZegoRoomConfig();
roomConfig.isUserStatusNotify = true;
roomConfig.token = token; // 需要 token 鉴权,从您的业务后台获取,生成方式请参考ZEGO官网文档
String roomId ; // 自定义用来登录的房间的Id,格式请参考说明
String userSteamID // 自定义用于推流的流Id,格式请参考说明
// !mark(1:2)
ZegoExpressEngine.getEngine()
.loginRoom(roomId, new ZegoUser(userId, userName), roomConfig, (errorCode, extendedData) -> {
Timber.d(
"loginRoom() called with: errorCode = [" + errorCode + "], extendedData = [" + extendedData + "]");
if (errorCode == 0) {
// 登录成功以后进行推流
ZegoExpressEngine.getEngine().startPublishingStream(userSteamID);
// 设置麦克风静音状态,false 表示不静音,true 表示静音
ZegoExpressEngine.getEngine().muteMicrophone(false);
}
if (callback != null) {
callback.onRoomLoginResult(errorCode, extendedData);
}
});
}
客户端登录房间并推流 // 记录智能体
self.streamToPlay = [self getAgentStreamID];
ZegoEngineConfig* engineConfig = [[ZegoEngineConfig alloc] init];
engineConfig.advancedConfig = @{
// !mark(1:5)
@"set_audio_volume_ducking_mode":@1,/**该配置是用来做音量闪避的**/
@"enable_rnd_volume_adaptive":@"true",/**该配置是用来做播放音量自适用**/
//数字人
@"sideinfo_callback_version":@(3),
@"sideinfo_bound_to_video_decoder":@"true"
};
// !mark
[ZegoExpressEngine setEngineConfig:engineConfig];
//这个设置只影响AEC(回声消除),我们这里设置为ModeGeneral,是会走我们自研的回声消除,这比较可控,
//如果其他选项,可能会走系统的回声消除,这在iphone手机上效果可能会更好,但如果在一些android机上效果可能不好
[[ZegoExpressEngine sharedEngine] setAudioDeviceMode:ZegoAudioDeviceModeGeneral];
//开启 AI 回声消除
// !mark(1:5)
[[ZegoExpressEngine sharedEngine] enableAGC:TRUE];
[[ZegoExpressEngine sharedEngine] enableAEC:TRUE];
[[ZegoExpressEngine sharedEngine] setAECMode:ZegoAECModeAIBalanced];
[[ZegoExpressEngine sharedEngine] enableANS:TRUE];
[[ZegoExpressEngine sharedEngine] setANSMode:ZegoANSModeMedium];
// 登录房间
// !mark
[self loginRoom:^(int errorCode, NSDictionary *extendedData) {
if (errorCode!=0) {
NSString* errorMsg =[NSString stringWithFormat:@"进入语音房间失败:%d", errorCode];
completion(NO, errorMsg);
return;
}
//进房后开始推流
[self startPushlishStream];
}];
客户端登录房间并推流
// 记录智能体
self.streamToPlay = [self getAgentStreamID];
ZegoEngineConfig* engineConfig = [[ZegoEngineConfig alloc] init];
engineConfig.advancedConfig = @{
// !mark(1:5)
@"set_audio_volume_ducking_mode":@1,/**该配置是用来做音量闪避的**/
@"enable_rnd_volume_adaptive":@"true",/**该配置是用来做播放音量自适用**/
//数字人
@"sideinfo_callback_version":@(3),
@"sideinfo_bound_to_video_decoder":@"true"
};
// !mark
[ZegoExpressEngine setEngineConfig:engineConfig];
//这个设置只影响AEC(回声消除),我们这里设置为ModeGeneral,是会走我们自研的回声消除,这比较可控,
//如果其他选项,可能会走系统的回声消除,这在iphone手机上效果可能会更好,但如果在一些android机上效果可能不好
[[ZegoExpressEngine sharedEngine] setAudioDeviceMode:ZegoAudioDeviceModeGeneral];
//开启 AI 回声消除
// !mark(1:5)
[[ZegoExpressEngine sharedEngine] enableAGC:TRUE];
[[ZegoExpressEngine sharedEngine] enableAEC:TRUE];
[[ZegoExpressEngine sharedEngine] setAECMode:ZegoAECModeAIBalanced];
[[ZegoExpressEngine sharedEngine] enableANS:TRUE];
[[ZegoExpressEngine sharedEngine] setANSMode:ZegoANSModeMedium];
// 登录房间
// !mark
[self loginRoom:^(int errorCode, NSDictionary *extendedData) {
if (errorCode!=0) {
NSString* errorMsg =[NSString stringWithFormat:@"进入语音房间失败:%d", errorCode];
completion(NO, errorMsg);
return;
}
//进房后开始推流
[self startPushlishStream];
}];
客户端登录房间并推流 final String _userId = 'user_id_1';
final String _roomId = 'room_id_1';
final String _userStreamId = 'user_stream_id_1';
/// 生成 RTC Token [参考文档](https://doc-zh.zego.im/article/14350)
final token = await getToken();
if (token.isEmpty) {
return false;
}
// !mark(1:11)
/// 下面用来做应答延迟优化的,需要集成对应版本的ZegoExpressEngine sdk,请联系即构同学
ZegoExpressEngine.setEngineConfig(
ZegoEngineConfig(
advancedConfig: {
/**该配置是用来做音量闪避的**/
'set_audio_volume_ducking_mode': '1',
/**该配置是用来做播放音量自适用**/
'enable_rnd_volume_adaptive': 'true'
},
),
);
/// 启用3A
// !mark(1:3)
ZegoExpressEngine.instance.enableAGC(true);
ZegoExpressEngine.instance.enableAEC(true);
if (!kIsWeb) {
ZegoExpressEngine.instance.setAECMode(ZegoANSMode.AIAGGRESSIVE2);
// !mark(1:4)
/// 这个设置只影响AEC(回声消除),我们这里设置为ModeGeneral,是会走我们自研的回声消除,这比较可控,
/// 如果其他选项,可能会走系统的回声消除,这在iphone手机上效果可能会更好,但如果在一些android机上效果可能不好
ZegoExpressEngine.instance.setAudioDeviceMode(
ZegoAudioDeviceMode.General,
);
}
ZegoExpressEngine.instance.enableANS(true);
ZegoExpressEngine.instance.setANSMode(ZegoANSMode.Medium);
/// 登录房间
// !mark
final user = ZegoUser(_userId, _userId);
final roomConfig = ZegoRoomConfig.defaultConfig()
..isUserStatusNotify = true
..token = token;
final loginResult = await ZegoExpressEngine.instance.loginRoom(
_roomId,
user,
config: roomConfig,
);
if (0 != loginResult.errorCode && 1002001 != loginResult.errorCode) {
return false;
}
/// 开始推流(打开麦克风)
await ZegoExpressEngine.instance.muteMicrophone(false);
await ZegoExpressEngine.instance.startPublishingStream(_userStreamId);
客户端登录房间并推流
final String _userId = 'user_id_1';
final String _roomId = 'room_id_1';
final String _userStreamId = 'user_stream_id_1';
/// 生成 RTC Token [参考文档](https://doc-zh.zego.im/article/14350)
final token = await getToken();
if (token.isEmpty) {
return false;
}
// !mark(1:11)
/// 下面用来做应答延迟优化的,需要集成对应版本的ZegoExpressEngine sdk,请联系即构同学
ZegoExpressEngine.setEngineConfig(
ZegoEngineConfig(
advancedConfig: {
/**该配置是用来做音量闪避的**/
'set_audio_volume_ducking_mode': '1',
/**该配置是用来做播放音量自适用**/
'enable_rnd_volume_adaptive': 'true'
},
),
);
/// 启用3A
// !mark(1:3)
ZegoExpressEngine.instance.enableAGC(true);
ZegoExpressEngine.instance.enableAEC(true);
if (!kIsWeb) {
ZegoExpressEngine.instance.setAECMode(ZegoANSMode.AIAGGRESSIVE2);
// !mark(1:4)
/// 这个设置只影响AEC(回声消除),我们这里设置为ModeGeneral,是会走我们自研的回声消除,这比较可控,
/// 如果其他选项,可能会走系统的回声消除,这在iphone手机上效果可能会更好,但如果在一些android机上效果可能不好
ZegoExpressEngine.instance.setAudioDeviceMode(
ZegoAudioDeviceMode.General,
);
}
ZegoExpressEngine.instance.enableANS(true);
ZegoExpressEngine.instance.setANSMode(ZegoANSMode.Medium);
/// 登录房间
// !mark
final user = ZegoUser(_userId, _userId);
final roomConfig = ZegoRoomConfig.defaultConfig()
..isUserStatusNotify = true
..token = token;
final loginResult = await ZegoExpressEngine.instance.loginRoom(
_roomId,
user,
config: roomConfig,
);
if (0 != loginResult.errorCode && 1002001 != loginResult.errorCode) {
return false;
}
/// 开始推流(打开麦克风)
await ZegoExpressEngine.instance.muteMicrophone(false);
await ZegoExpressEngine.instance.startPublishingStream(_userStreamId);
客户端登录房间并推流 const userId = "" // 登录 Express SDK房间用户ID
const roomId = "" // RTC 房间 ID
const userStreamId = "" // 用户推流 ID
async function enterRoom() {
try {
// 生成 RTC Token [参考文档](https://doc-zh.zego.im/article/7646)
const token = await Api.getToken();
// 登录房间
await zg.loginRoom(roomId, token, {
userID: userId,
userName: "",
});
// 创建本地音频流
const localStream = await zg.createZegoStream({
camera: {
video: false,
audio: true,
},
});
if (localStream) {
// !mark(1:2)
// 推送本地流
await zg.startPublishingStream(userStreamId, localStream);
}
} catch (error) {
console.error("进入房间失败:", error);
throw error;
}
}
enterRoom()
客户端登录房间并推流
const userId = "" // 登录 Express SDK房间用户ID
const roomId = "" // RTC 房间 ID
const userStreamId = "" // 用户推流 ID
async function enterRoom() {
try {
// 生成 RTC Token [参考文档](https://doc-zh.zego.im/article/7646)
const token = await Api.getToken();
// 登录房间
await zg.loginRoom(roomId, token, {
userID: userId,
userName: "",
});
// 创建本地音频流
const localStream = await zg.createZegoStream({
camera: {
video: false,
audio: true,
},
});
if (localStream) {
// !mark(1:2)
// 推送本地流
await zg.startPublishingStream(userStreamId, localStream);
}
} catch (error) {
console.error("进入房间失败:", error);
throw error;
}
}
enterRoom()
拉智能体流
默认只有一个真实用户及智能体在同一个房间内,所以拉流时默认新增的就是智能体流。
客户端拉智能体的流 // 监听流回调和拉流
ZegoExpressEngine.getEngine().setEventHandler(new IZegoEventHandler() {
@Override
// 房间内其他用户推流/停止推流时,我们会在这里收到相应用户的音视频流增减的通知
public void onRoomStreamUpdate(String roomID, ZegoUpdateType updateType, ArrayList<ZegoStream> streamList, JSONObject extendedData) {
super.onRoomStreamUpdate(roomID, updateType, streamList, extendedData);
//当 updateType 为 ZegoUpdateType.ADD 时,代表有音视频流新增,此时我们可以调用 startPlayingStream 接口拉取该音视频流
if (updateType == ZegoUpdateType.ADD) {
// !mark(1:4)
ZegoStream stream = streamList.get(0);
// 默认新增是智能体流,直接拉流
ZegoExpressEngine.getEngine().setPlayStreamBufferIntervalRange(stream.streamID, 100, 2000); // 设置 buffer 优化体验
ZegoExpressEngine.getEngine().startPlayingStream(stream.streamID);
}
}
});
客户端拉智能体的流
// 监听流回调和拉流
ZegoExpressEngine.getEngine().setEventHandler(new IZegoEventHandler() {
@Override
// 房间内其他用户推流/停止推流时,我们会在这里收到相应用户的音视频流增减的通知
public void onRoomStreamUpdate(String roomID, ZegoUpdateType updateType, ArrayList<ZegoStream> streamList, JSONObject extendedData) {
super.onRoomStreamUpdate(roomID, updateType, streamList, extendedData);
//当 updateType 为 ZegoUpdateType.ADD 时,代表有音视频流新增,此时我们可以调用 startPlayingStream 接口拉取该音视频流
if (updateType == ZegoUpdateType.ADD) {
// !mark(1:4)
ZegoStream stream = streamList.get(0);
// 默认新增是智能体流,直接拉流
ZegoExpressEngine.getEngine().setPlayStreamBufferIntervalRange(stream.streamID, 100, 2000); // 设置 buffer 优化体验
ZegoExpressEngine.getEngine().startPlayingStream(stream.streamID);
}
}
});
客户端拉智能体的流 //监听房间流信息更新状态,拉取智能体流播放
- (void)onRoomStreamUpdate:(ZegoUpdateType)updateType
streamList:(NSArray<ZegoStream *> *)streamList
extendedData:(nullable NSDictionary *)extendedData
roomID:(NSString *)roomID{
if (updateType == ZegoUpdateTypeAdd) {
for (int i=0; i<streamList.count; i++) {
ZegoStream* item = [streamList objectAtIndex:i];
// !mark
[self startPlayStream:item.streamID];
}
} else if(updateType == ZegoUpdateTypeDelete) {
for (int i=0; i<streamList.count; i++) {
ZegoStream* item = [streamList objectAtIndex:i];
[[ZegoExpressEngine sharedEngine] stopPlayingStream:item.streamID];
}
}
}
客户端拉智能体的流
//监听房间流信息更新状态,拉取智能体流播放
- (void)onRoomStreamUpdate:(ZegoUpdateType)updateType
streamList:(NSArray<ZegoStream *> *)streamList
extendedData:(nullable NSDictionary *)extendedData
roomID:(NSString *)roomID{
if (updateType == ZegoUpdateTypeAdd) {
for (int i=0; i<streamList.count; i++) {
ZegoStream* item = [streamList objectAtIndex:i];
// !mark
[self startPlayStream:item.streamID];
}
} else if(updateType == ZegoUpdateTypeDelete) {
for (int i=0; i<streamList.count; i++) {
ZegoStream* item = [streamList objectAtIndex:i];
[[ZegoExpressEngine sharedEngine] stopPlayingStream:item.streamID];
}
}
}
客户端拉智能体的流 ZegoExpressEngine.onRoomStreamUpdate = _onRoomStreamUpdate;
void _onRoomStreamUpdate(
String roomID,
ZegoUpdateType updateType,
List<ZegoStream> streamList,
Map<String, dynamic> extendedData,
) {
if (updateType == ZegoUpdateType.Add) {
for (var stream in streamList) {
ZegoExpressEngine.instance.startPlayingStream(stream.streamID);
}
} else if (updateType == ZegoUpdateType.Delete) {
for (var stream in streamList) {
ZegoExpressEngine.instance.stopPlayingStream(stream.streamID);
}
}
}
客户端拉智能体的流
ZegoExpressEngine.onRoomStreamUpdate = _onRoomStreamUpdate;
void _onRoomStreamUpdate(
String roomID,
ZegoUpdateType updateType,
List<ZegoStream> streamList,
Map<String, dynamic> extendedData,
) {
if (updateType == ZegoUpdateType.Add) {
for (var stream in streamList) {
ZegoExpressEngine.instance.startPlayingStream(stream.streamID);
}
} else if (updateType == ZegoUpdateType.Delete) {
for (var stream in streamList) {
ZegoExpressEngine.instance.stopPlayingStream(stream.streamID);
}
}
}
客户端拉智能体的流 // 监听远端流更新事件
function setupEvent() {
zg.on("roomStreamUpdate",
async (roomID, updateType, streamList) => {
if (updateType === "ADD" && streamList.length > 0) {
try {
for (const stream of streamList) {
// 拉智能体流
// !mark
const mediaStream = await zg.startPlayingStream(stream.streamID);
if (!mediaStream) return;
const remoteView = await zg.createRemoteStreamView(mediaStream);
if (remoteView) {
// 这里需要页面上有个id为remoteSteamView的容器接收智能体流 [参考文档](https://doc-zh.zego.im/article/api?doc=Express_Video_SDK_API~javascript_web~class~ZegoStreamView)
remoteView.play("remoteSteamView", {
enableAutoplayDialog: false,
});
}
}
} catch (error) {
console.error("拉流失败:", error);
}
}
}
);
}
客户端拉智能体的流
// 监听远端流更新事件
function setupEvent() {
zg.on("roomStreamUpdate",
async (roomID, updateType, streamList) => {
if (updateType === "ADD" && streamList.length > 0) {
try {
for (const stream of streamList) {
// 拉智能体流
// !mark
const mediaStream = await zg.startPlayingStream(stream.streamID);
if (!mediaStream) return;
const remoteView = await zg.createRemoteStreamView(mediaStream);
if (remoteView) {
// 这里需要页面上有个id为remoteSteamView的容器接收智能体流 [参考文档](https://doc-zh.zego.im/article/api?doc=Express_Video_SDK_API~javascript_web~class~ZegoStreamView)
remoteView.play("remoteSteamView", {
enableAutoplayDialog: false,
});
}
}
} catch (error) {
console.error("拉流失败:", error);
}
}
}
);
}
恭喜你🎉!完成这一步骤后,您已经可以用语音问智能体任何问题,智能体都会回答您的问题!
退出房间结束通话
客户端调用退出登录接口退出房间,并停止推拉流。同时通知业务后台本次通话结束。业务后台收到结束通话通知后会删除智能体实例,智能体实例会自动退出房间并停止推拉流。最后再调用数字人 SDK 退出接口,这样一次完整的互动就结束了。
// 通知业务后台结束通话
private void stop() {
RequestBody body = RequestBody.create("", MediaType.parse("application/json; charset=utf-8"));
// !mark
Request request = new Request.Builder().url(YOUR_SERVER_URL + "/api/stop").post(body).build();
new OkHttpClient.Builder().build().newCall(request).enqueue(new Callback() {
@Override
public void onFailure(@NonNull Call call, @NonNull IOException e) {
}
@Override
public void onResponse(@NonNull Call call, @NonNull Response response) throws IOException {
if (response.isSuccessful()) {
// 退出房间
// !mark
ZegoExpressEngine.getEngine().logoutRoom();
// 退出数字人 SDK
digitalMobile.stop();
}
}
});
}
// 通知业务后台结束通话
private void stop() {
RequestBody body = RequestBody.create("", MediaType.parse("application/json; charset=utf-8"));
// !mark
Request request = new Request.Builder().url(YOUR_SERVER_URL + "/api/stop").post(body).build();
new OkHttpClient.Builder().build().newCall(request).enqueue(new Callback() {
@Override
public void onFailure(@NonNull Call call, @NonNull IOException e) {
}
@Override
public void onResponse(@NonNull Call call, @NonNull Response response) throws IOException {
if (response.isSuccessful()) {
// 退出房间
// !mark
ZegoExpressEngine.getEngine().logoutRoom();
// 退出数字人 SDK
digitalMobile.stop();
}
}
});
}
/**
* 通知业务后台结束通话
*
* @param completion 完成回调,返回操作结果
* @discussion 该方法会向服务器发送结束通话的请求,用于释放AI智能体实例
*/
- (void)doStopCallWithCompletion:(void (^)(NSInteger code, NSString *message, NSDictionary *data))completion {
// 构建请求URL
// !mark
NSString *url = [NSString stringWithFormat:@"%@/api/stop", self.currentBaseURL];
NSURL *requestURL = [NSURL URLWithString:url];
// 创建请求
NSMutableURLRequest *request = [[NSMutableURLRequest alloc] initWithURL:requestURL];
request.HTTPMethod = @"POST";
// 设置请求头
[request setValue:@"application/json" forHTTPHeaderField:@"Content-Type"];
// 创建请求参数
NSMutableDictionary *params = [NSMutableDictionary dictionary];
NSData *jsonData = [NSJSONSerialization dataWithJSONObject:params options:0 error:nil];
request.HTTPBody = jsonData;
// 创建会话
NSURLSession *session = [NSURLSession sharedSession];
// 发送请求
NSURLSessionDataTask *task = [session dataTaskWithRequest:request
completionHandler:^(NSData * _Nullable data,
NSURLResponse * _Nullable response,
NSError * _Nullable error) {
dispatch_async(dispatch_get_main_queue(), ^{
if (error) {
if (completion) {
completion(-1, @"网络请求失败", nil);
}
return;
}
NSHTTPURLResponse *httpUrlResponse = (NSHTTPURLResponse *)response;
if (httpUrlResponse.statusCode != 200) {
if (completion) {
completion(httpUrlResponse.statusCode,
[NSString stringWithFormat:@"服务器错误: %ld", (long)httpUrlResponse.statusCode],
nil);
}
return;
}
NSError *jsonError;
NSDictionary *dict = [NSJSONSerialization JSONObjectWithData:data options:0 error:&jsonError];
if (jsonError) {
if (completion) {
completion(-2, @"解析响应数据失败", nil);
}
return;
}
// 解析响应数据
NSInteger code = [dict[@"code"] integerValue];
NSString *message = dict[@"message"];
NSDictionary *responseData = dict[@"data"];
if (completion) {
completion(code, message, responseData);
}
// 退出房间
// !mark
[[ZegoExpressEngine sharedEngine] logoutRoom];
});
}];
[task resume];
}
/**
* 通知业务后台结束通话
*
* @param completion 完成回调,返回操作结果
* @discussion 该方法会向服务器发送结束通话的请求,用于释放AI智能体实例
*/
- (void)doStopCallWithCompletion:(void (^)(NSInteger code, NSString *message, NSDictionary *data))completion {
// 构建请求URL
// !mark
NSString *url = [NSString stringWithFormat:@"%@/api/stop", self.currentBaseURL];
NSURL *requestURL = [NSURL URLWithString:url];
// 创建请求
NSMutableURLRequest *request = [[NSMutableURLRequest alloc] initWithURL:requestURL];
request.HTTPMethod = @"POST";
// 设置请求头
[request setValue:@"application/json" forHTTPHeaderField:@"Content-Type"];
// 创建请求参数
NSMutableDictionary *params = [NSMutableDictionary dictionary];
NSData *jsonData = [NSJSONSerialization dataWithJSONObject:params options:0 error:nil];
request.HTTPBody = jsonData;
// 创建会话
NSURLSession *session = [NSURLSession sharedSession];
// 发送请求
NSURLSessionDataTask *task = [session dataTaskWithRequest:request
completionHandler:^(NSData * _Nullable data,
NSURLResponse * _Nullable response,
NSError * _Nullable error) {
dispatch_async(dispatch_get_main_queue(), ^{
if (error) {
if (completion) {
completion(-1, @"网络请求失败", nil);
}
return;
}
NSHTTPURLResponse *httpUrlResponse = (NSHTTPURLResponse *)response;
if (httpUrlResponse.statusCode != 200) {
if (completion) {
completion(httpUrlResponse.statusCode,
[NSString stringWithFormat:@"服务器错误: %ld", (long)httpUrlResponse.statusCode],
nil);
}
return;
}
NSError *jsonError;
NSDictionary *dict = [NSJSONSerialization JSONObjectWithData:data options:0 error:&jsonError];
if (jsonError) {
if (completion) {
completion(-2, @"解析响应数据失败", nil);
}
return;
}
// 解析响应数据
NSInteger code = [dict[@"code"] integerValue];
NSString *message = dict[@"message"];
NSDictionary *responseData = dict[@"data"];
if (completion) {
completion(code, message, responseData);
}
// 退出房间
// !mark
[[ZegoExpressEngine sharedEngine] logoutRoom];
});
}];
[task resume];
}
// 通知业务后台结束通话
Future<Map<String, dynamic>> stopCall() async {
try {
final response = await http.post(
Uri.parse('$_currentBaseUrl/api/stop'),
headers: {'Content-Type': 'application/json'},
);
if (response.statusCode == 200) {
final json = jsonDecode(response.body);
return json;
}
return {'code': -1, 'message': '请求失败'};
} catch (e) {
return {'code': -1, 'message': e.toString()};
}
}
/// 停止与AI智能体的会话
Future<bool> stop() async {
stopCall();
final String _roomId = 'room_id_1';
final engine = ZegoExpressEngine.instance;
/// 停止推流
await engine.stopPublishingStream();
/// 登出房间
await engine.logoutRoom(_roomId);
return true;
}
// 通知业务后台结束通话
Future<Map<String, dynamic>> stopCall() async {
try {
final response = await http.post(
Uri.parse('$_currentBaseUrl/api/stop'),
headers: {'Content-Type': 'application/json'},
);
if (response.statusCode == 200) {
final json = jsonDecode(response.body);
return json;
}
return {'code': -1, 'message': '请求失败'};
} catch (e) {
return {'code': -1, 'message': e.toString()};
}
}
/// 停止与AI智能体的会话
Future<bool> stop() async {
stopCall();
final String _roomId = 'room_id_1';
final engine = ZegoExpressEngine.instance;
/// 停止推流
await engine.stopPublishingStream();
/// 登出房间
await engine.logoutRoom(_roomId);
return true;
}
// 退出房间
async function stopCall() {
try {
// !mark
const response = await fetch(`${YOUR_SERVER_URL}/api/stop`, { // YOUR_SERVER_URL 为您的业务后台地址
method: 'POST',
headers: {
'Content-Type': 'application/json',
}
});
const data = await response.json();
console.log('结束通话结果:', data);
return data;
} catch (error) {
console.error('结束通话失败:', error);
throw error;
}
}
stopCall();
zg.destroyLocalStream(localStream);
// !mark
zg.logoutRoom();
// 退出房间
async function stopCall() {
try {
// !mark
const response = await fetch(`${YOUR_SERVER_URL}/api/stop`, { // YOUR_SERVER_URL 为您的业务后台地址
method: 'POST',
headers: {
'Content-Type': 'application/json',
}
});
const data = await response.json();
console.log('结束通话结果:', data);
return data;
} catch (error) {
console.error('结束通话失败:', error);
throw error;
}
}
stopCall();
zg.destroyLocalStream(localStream);
// !mark
zg.logoutRoom();
以上就是您实现与数字人智能体进行实时互动的完整核心流程。
ZEGO Express SDK 最佳配置实践
为了获得最佳的音频通话体验,建议按照以下最佳实践配置 ZEGO Express SDK。这些配置可以显著提升智能体视频交互的质量。
开启传统音频 3A 处理(回声消除AEC、自动增益控制AGC、噪声抑制ANS)
设置房间的使用场景为高品质语聊房场景,SDK 会针对不同的场景采取不同的优化策略
设置音频设备模式为默认模式
开启 AI 回声消除,提高回声消除效果(该功能需要联系 ZEGO 技术支持获取对应版本的 ZEGOExpress SDK)
配置音量闪避,避免声音冲突
启用播放音量自适应,提升用户体验
启用 AI 降噪,设置适当的噪声抑制级别
启用 SEI 和视频帧同步回调,确保数字人能够正确渲染视频帧
ZegoEngineConfig config = new ZegoEngineConfig();
HashMap<String, String> advanceConfig = new HashMap<String, String>();
// 配置音量闪避,避免声音冲突
advanceConfig.put("set_audio_volume_ducking_mode", "1");
// 启用播放音量自适应
advanceConfig.put("enable_rnd_volume_adaptive", "true");
// 启用 SEI 和视频帧同步回调,确保数字人能够正确渲染视频帧
advanceConfig.put("sideinfo_callback_version", "3");
advanceConfig.put("sideinfo_bound_to_video_decoder", "true");
config.advancedConfig = advanceConfig;
ZegoExpressEngine.setEngineConfig(config);
//设置房间的使用场景为高品质语聊房场景
ZegoExpressEngine.getEngine().setRoomScenario(ZegoScenario.HIGH_QUALITY_CHATROOM);
// 设置音频设备模式 默认模式
ZegoExpressEngine.getEngine().setAudioDeviceMode(ZegoAudioDeviceMode.GENERAL);
// 开启传统音频 3A 处理
ZegoExpressEngine.getEngine().enableAEC(true);
ZegoExpressEngine.getEngine().enableAGC(true);
ZegoExpressEngine.getEngine().enableANS(true);
// 开启 AI 回声消除
ZegoExpressEngine.getEngine().setAECMode(ZegoAECMode.AI_BALANCED);
// 开启 AI 降噪,适度的噪声抑制
ZegoExpressEngine.getEngine().setANSMode(ZegoANSMode.MEDIUM);
ZegoEngineConfig config = new ZegoEngineConfig();
HashMap<String, String> advanceConfig = new HashMap<String, String>();
// 配置音量闪避,避免声音冲突
advanceConfig.put("set_audio_volume_ducking_mode", "1");
// 启用播放音量自适应
advanceConfig.put("enable_rnd_volume_adaptive", "true");
// 启用 SEI 和视频帧同步回调,确保数字人能够正确渲染视频帧
advanceConfig.put("sideinfo_callback_version", "3");
advanceConfig.put("sideinfo_bound_to_video_decoder", "true");
config.advancedConfig = advanceConfig;
ZegoExpressEngine.setEngineConfig(config);
//设置房间的使用场景为高品质语聊房场景
ZegoExpressEngine.getEngine().setRoomScenario(ZegoScenario.HIGH_QUALITY_CHATROOM);
// 设置音频设备模式 默认模式
ZegoExpressEngine.getEngine().setAudioDeviceMode(ZegoAudioDeviceMode.GENERAL);
// 开启传统音频 3A 处理
ZegoExpressEngine.getEngine().enableAEC(true);
ZegoExpressEngine.getEngine().enableAGC(true);
ZegoExpressEngine.getEngine().enableANS(true);
// 开启 AI 回声消除
ZegoExpressEngine.getEngine().setAECMode(ZegoAECMode.AI_BALANCED);
// 开启 AI 降噪,适度的噪声抑制
ZegoExpressEngine.getEngine().setANSMode(ZegoANSMode.MEDIUM);
ZegoEngineProfile* profile = [[ZegoEngineProfile alloc]init];
profile.appID = kZegoAppId;
profile.scenario = ZegoScenarioHighQualityChatroom; //高品质语聊房场景,设置该场景可以避免申请相机权限,接入方应按自己的业务场景设置具体值
ZegoEngineConfig* engineConfig = [[ZegoEngineConfig alloc] init];
engineConfig.advancedConfig = @{
@"set_audio_volume_ducking_mode":@1,/**配置音量闪避,避免声音冲突**/
@"enable_rnd_volume_adaptive":@"true",/**启用播放音量自适应**/
@"sideinfo_callback_version":@(3),
@"sideinfo_bound_to_video_decoder":@"true"
};
[ZegoExpressEngine setEngineConfig:engineConfig];
[ZegoExpressEngine createEngineWithProfile:profile eventHandler:self];
// 开启传统音频 3A 处理
[[ZegoExpressEngine sharedEngine] enableAGC:TRUE];
[[ZegoExpressEngine sharedEngine] enableAEC:TRUE];
[[ZegoExpressEngine sharedEngine] enableANS:TRUE];
// 开启 AI 回声消除
[[ZegoExpressEngine sharedEngine] setAECMode:ZegoAECModeAIBalanced];
// 开启 AI 降噪,适度的噪声抑制
[[ZegoExpressEngine sharedEngine] setANSMode:ZegoANSModeMedium];
ZegoEngineProfile* profile = [[ZegoEngineProfile alloc]init];
profile.appID = kZegoAppId;
profile.scenario = ZegoScenarioHighQualityChatroom; //高品质语聊房场景,设置该场景可以避免申请相机权限,接入方应按自己的业务场景设置具体值
ZegoEngineConfig* engineConfig = [[ZegoEngineConfig alloc] init];
engineConfig.advancedConfig = @{
@"set_audio_volume_ducking_mode":@1,/**配置音量闪避,避免声音冲突**/
@"enable_rnd_volume_adaptive":@"true",/**启用播放音量自适应**/
@"sideinfo_callback_version":@(3),
@"sideinfo_bound_to_video_decoder":@"true"
};
[ZegoExpressEngine setEngineConfig:engineConfig];
[ZegoExpressEngine createEngineWithProfile:profile eventHandler:self];
// 开启传统音频 3A 处理
[[ZegoExpressEngine sharedEngine] enableAGC:TRUE];
[[ZegoExpressEngine sharedEngine] enableAEC:TRUE];
[[ZegoExpressEngine sharedEngine] enableANS:TRUE];
// 开启 AI 回声消除
[[ZegoExpressEngine sharedEngine] setAECMode:ZegoAECModeAIBalanced];
// 开启 AI 降噪,适度的噪声抑制
[[ZegoExpressEngine sharedEngine] setANSMode:ZegoANSModeMedium];
拉流前设置:
设置拉流播放缓存自适应调整的区间范围,优化拉流体验
ZegoExpressEngine.getEngine().setPlayStreamBufferIntervalRange(stream.streamID, 100, 2000);
ZegoExpressEngine.getEngine().startPlayingStream(stream.streamID);
ZegoExpressEngine.getEngine().setPlayStreamBufferIntervalRange(stream.streamID, 100, 2000);
ZegoExpressEngine.getEngine().startPlayingStream(stream.streamID);
// !mark
[[ZegoExpressEngine sharedEngine] setPlayStreamBufferIntervalRange:streamId min:100 max:2000];
[[ZegoExpressEngine sharedEngine] startPlayingStream:streamId];
// !mark
[[ZegoExpressEngine sharedEngine] setPlayStreamBufferIntervalRange:streamId min:100 max:2000];
[[ZegoExpressEngine sharedEngine] startPlayingStream:streamId];
const playOption = {
jitterBufferTarget: 500,
}
// !mark
zg.startPlayingStream(streamId, playOption);
const playOption = {
jitterBufferTarget: 500,
}
// !mark
zg.startPlayingStream(streamId, playOption);
开启传统音频 3A 处理(回声消除AEC、自动增益控制AGC、噪声抑制ANS)
设置房间的使用场景为高品质语聊房场景,SDK 会针对不同的场景采取不同的优化策略
推流时,设置推流参数配置自动切换为可用的 videoCodec
// 引入必要的模块
import { ZegoExpressEngine } from "zego-express-engine-webrtc";
import { VoiceChanger } from "zego-express-engine-webrtc/voice-changer";
// 加载音频处理模块,需要在 new ZegoExpressEngine 前调用
ZegoExpressEngine.use(VoiceChanger);
// 实例化 ZegoExpressEngine,设置房间的使用场景为高品质语聊房场景
const zg = new ZegoExpressEngine(appid, server, { scenario: 7 })
// 传统音频 3A 处理,SDK 默认开启
// 创建本地媒体流
const localStream = await zg.createZegoStream();
// 推送本地媒体流,需要设置自动切换为可用的 videoCodec
await zg.startPublishingStream(userStreamId, localStream, {
enableAutoSwitchVideoCodec: true,
});
// 检查系统要求
async function checkSystemRequirements() {
// 检测是否支持WebRTC
const rtcSupport = await zg.checkSystemRequirements("webRTC");
if (!rtcSupport.result) {
console.error("浏览器不支持WebRTC");
return false;
}
// 检测麦克风权限
const micSupport = await zg.checkSystemRequirements("microphone");
if (!micSupport.result) {
console.error("未获得麦克风权限");
return false;
}
return true;
}
// 引入必要的模块
import { ZegoExpressEngine } from "zego-express-engine-webrtc";
import { VoiceChanger } from "zego-express-engine-webrtc/voice-changer";
// 加载音频处理模块,需要在 new ZegoExpressEngine 前调用
ZegoExpressEngine.use(VoiceChanger);
// 实例化 ZegoExpressEngine,设置房间的使用场景为高品质语聊房场景
const zg = new ZegoExpressEngine(appid, server, { scenario: 7 })
// 传统音频 3A 处理,SDK 默认开启
// 创建本地媒体流
const localStream = await zg.createZegoStream();
// 推送本地媒体流,需要设置自动切换为可用的 videoCodec
await zg.startPublishingStream(userStreamId, localStream, {
enableAutoSwitchVideoCodec: true,
});
// 检查系统要求
async function checkSystemRequirements() {
// 检测是否支持WebRTC
const rtcSupport = await zg.checkSystemRequirements("webRTC");
if (!rtcSupport.result) {
console.error("浏览器不支持WebRTC");
return false;
}
// 检测麦克风权限
const micSupport = await zg.checkSystemRequirements("microphone");
if (!micSupport.result) {
console.error("未获得麦克风权限");
return false;
}
return true;
}
其他优化建议
浏览器兼容性 :推荐使用 Chrome、Firefox、Safari 等现代浏览器的最新版本
网络环境 :确保网络连接稳定,建议使用有线网络或信号良好的Wi-Fi
音频设备 :使用质量较好的麦克风和扬声器
页面优化 :避免在同一页面运行过多JavaScript任务,可能会影响音频处理性能
HTTPS环境 :在生产环境中使用HTTPS协议,以确保获取麦克风权限
监听异常回调
由于 LLM 和 TTS 等参数比较多且复杂,在接入测试过程中容易因为参数配置错误导致的智能体不回答或者不说话等各种异常问题。我们强烈建议您在接入测试过程中监听异常回调,并根据回调信息快速排查问题。
接收回调
点击查看监听异常回调指引。监听回调中 Event 为 Exception 的事件。通过 Data.Code 和 Data.Message 可以快速定位问题。