自定义音频采集与渲染
功能简介
自定义音频采集
以下场景中,建议使用自定义音频采集功能:
- 开发者需要从现有音频流、音频文件、或者定制的采集系统中获得采集后输入,交给 SDK 传输。
- 开发者有自己对 PCM 输入源做特殊的音效处理的需求,在音效处理后输入,交给 SDK 传输。
自定义音频渲染
当开发者有自己渲染的需求,例如对拉取到的原始 PCM 数据做特殊应用或者处理后再渲染,建议使用 SDK 的自定义音频渲染功能。
音频的采集和渲染分为 3 种情况:
- 内部采集、内部渲染
- 自定义采集、自定义渲染
- 自定义采集、内部渲染
开发者请根据自己的业务场景,选择合适的音频采集和渲染方式。
前提条件
在实现自定义音频采集与渲染之前,请确保:
- 已在 ZEGO 控制台 创建项目,并申请有效的 AppID 和 AppSign,详情请参考 控制台 - 项目信息。
- 已在项目中集成 ZEGO Express SDK,并实现了基本的音视频推拉流功能,详情请参考 快速开始 - 集成 和 快速开始 - 实现流程。
使用步骤
下图为 API 接口调用时序图:

1 初始化 SDK
请参考 快速开始 - 实现流程 的 “创建引擎”。
2 开启自定义音频采集渲染
调用 enableCustomAudioIO 接口开启自定义音频 IO 功能。
// 设置音频源为自定义采集渲染
var config = ZegoCustomAudioConfig(ZegoAudioSourceType.Custom);
ZegoExpressEngine.instance.enableCustomAudioIO(true,config);
3 登录房间后推/拉流
请参考 快速开始 - 实现流程 的 “登录房间”、“推流” 和 “拉流”。
4 采集音频数据
打开音频采集设备,将采集到的音频数据通过 sendCustomAudioCaptureAACData 或 sendCustomAudioCapturePCMData 传递给引擎。
5 渲染音频数据
使用 fetchCustomAudioRenderPCMData 从引擎中获取要渲染的数据,拿到音频数据后再通渲染设备播放。
常见问题
-
调用自定义音频采集渲染相关接口的时机?
- enableCustomAudioIO:应该在引擎启动前开始调用,即开始预览、推拉流之前。
- sendCustomAudioCaptureAACData/sendCustomAudioCapturePCMData:应该在开始预览和推流后调用。如果在开始预览、推流前调用,SDK 内部会直接丢弃收到的数据。
- fetchCustomAudioRenderPCMData:应该在调用了开始拉流后调用,在开始拉流前获取到的都是无效的静音数据。
-
调用自定义音频采集渲染相关接口的频率?
最优的方式是按照物理音频设备的时钟驱动,在物理采集设备采集到数据的时候调用 sendCustomAudioCaptureAACData 和 sendCustomAudioCapturePCMData;在物理渲染设备需要数据时调用 fetchCustomAudioRenderPCMData。
如果开发者的实际场景中没有具体的物理设备来驱动,建议每 10 ms ~ 20 ms 调用一次上述接口。
-
调用 fetchCustomAudioRenderPCMData,如果 SDK 内部数据不足 “dataLength” 时, SDK 如何处理?
在保证 “param” 填写正常的情况下,当 SDK 内部的数据不足 “dataLength” 时,不足的剩余长度按照静音数据补齐。
-
Android 设备外接麦克风,使用自定义音频采集与渲染,若中途用户戴上了蓝牙耳机,如何使用 Express SDK 采集音频?
由于 Express SDK 内部不会自动切换到内部采集,需要开发者做业务逻辑处理:停止外部采集。移动端 SDK 会根据系统当前的 route(音频路由) 来选择设备,如果系统的 route 是蓝牙,就会使用蓝牙进行采集。