logo
当前页

展示字幕


本文介绍如何展示用户在与智能体进行语音通话的过程中的字幕。如下:

  • 用户说话内容:流式展示用户正在说的话(语音识别(ASR)的实时结果)
  • 智能体说话内容:流式展示智能体输出的内容(大语言模型(LLM)实时的输出结果)
subtitle.png

前提条件

已按照 快速开始 文档集成 ZEGO Express SDK 和 AI Agent 并实现基本的语音通话功能。

使用字幕组件

您可以直接下载字幕组件源码到您的项目中直接使用。

字幕组使用示例
#import <UIKit/UIKit.h>
#import "ZegoAIAgentSubtitlesEventHandler.h"

NS_ASSUME_NONNULL_BEGIN

@interface YourView : UIView <ZegoAIAgentSubtitlesEventHandler>

@end

快速实现

如果您不想使用字幕组件,也可以自行实现字幕组件的功能。详细如下:

用户与智能体进行语音对话期间,AI Agent 服务端通过 RTC 房间自定义消息下发 ASR 识别文本和 LLM 回答的文本。客户端可以监听房间自定义消息,解析对应的状态事件来渲染 UI 。

RTC 房间自定义消息的处理流程如下:

监听房间自定义消息

客户端可以通过实现ZegoEventHandler协议,监听 onRecvExperimentalAPI 回调获取 methodliveroom.room.on_recive_room_channel_message 的房间自定义消息。以下是监听回调的示例代码(点击查看完整示例代码):

// 实现ZegoEventHandler协议
@interface YourService () <ZegoEventHandler>
@property (nonatomic, strong) YourViewController *youViewController;
@end

@implementation YourService

// 注意!!!:通过房间自定义消息收到的数据可能会乱序,需要根据 SeqId 字段进行排序。
// 处理express onRecvExperimentalAPI接收到的消息
- (void)onRecvExperimentalAPI:(NSString *)content {
    // 转发给view解析消息内容
    [self.youViewController handleExpressExperimentalAPIContent:content];
}

@end // YourService implementation

房间自定义消息协议

房间自定义消息的各字段说明如下:

字段类型描述
TimestampNumber时间戳,秒级别
SeqIdNumber包序列号,可能乱序,请根据序列号对消息进行排序。极端情况下 Id 可能不连续。
RoundNumber对话轮次,每次用户主动说话轮次增加
CmdNumber3: 语音识别(ASR)的文本
4: LLM 文本
DataObject具体内容,各Cmd对应不同Data

Cmd 不同对应的 Data 也不同,具体如下:

处理逻辑

根据 Cmd 字段判断消息类型,并根据 Data 字段获取消息内容。

注意事项

  • 消息排序处理:通过房间自定义消息收到的数据可能会乱序,需要根据 SeqId 字段进行排序。
  • 流式文本处理:
  • ASR 文本每次下发的是全量文本,同一个 MessageId 的消息需要完全替换之前的内容。
  • LLM 文本每次下发的是增量文本,同一个 MessageId 的消息需要在排序后累加显示。
  • 内存管理:请及时清理已完成的消息缓存,特别是当用户进行长时间对话时。

Previous

实现数字人视频通话

当前页

返回到顶部