今天小编分享的科学经验:AI说书媲美真人!豆包语音大模型更新长上下文理解,欢迎阅读。
下面的两个有声书演播片段,你能分辨是真人还是 AI 合成的吗?
实际上这两个小说片段都是 AI 合成的,方案来自于豆包语音模型团队。为了逼近一流真人主播的演播效果,豆包语音模型基于原有 Seed-TTS 框架进一步加入上下文理解,最终实现了高表现力、高自然度、高语义理解的小说演播效果。
豆包语音模型无需额外标签,端到端合成声音
市面上很多的语音模型已经能保证足够自然的合成表现,但在音质、韵律、情感,以及多角色演绎上还有探索空间。特别是在小说演播场景下,想要媲美一流主播细腻的演播效果,要做好旁白和角色的区分演绎、角色情感的精确表达、不同角色的区分度等。
传统的小说 TTS 生成方式,需要提前给对话旁白、情感、角色打标签,而豆包语音模型则可以做到端到端合成,无需额外标签标注。
△传统语音模型和豆包语音模型合成链路的区别改进 Seed-TTS 技术,合成语音效果媲美真人
原始Seed-TTS(技术报告:https://arxiv.org/pdf/2406.02430)是一种自回归文本到语音模型,主要分为 4 个主要模块:Speech Tokenizer、Autoregressive Transformer、Diffusion Model、Acoustic Vocoder。
其中 Speech Tokenizer 解析了参考音频信息,决定了合成音频的音色和全局风格;Autoregressive Transformer 接收传入的目标文本和 Speech Tokenizer 的输出,进而生成出包含语义信息的 Semantic Token;Diffusion Model 会基于 Semantic Token 建模出包含语音信息的 Acoustic Token;Acoustic Vocoder 负责将 Acoustic Token 重建还原出最终的音频。
△原始 Seed-TTS 架构
为进一步提升小说演播下的语音表现力和长文本的理解,豆包技术团队对 Seed-TTS 进行了改进。
在数据上,小说音频做章节级别处理,保证了长文下的语音一致性和连贯性。
在特征上,融合 TTS 前端提取的音素、音调、韵律信息和原始文本,提升发音和韵律的同时,保留小说语义。
在结构上,将 speech tokenizer 改为speaker embedding,解除 reference audio 对于语音风格的限制,因而同一个发音人能在不同角色上作出更贴合人设的演绎。
最后在目标合成文本之外,额外加入了上下文的信息,从而使得模型能够感知更大范围的语义信息,旁白和角色音表现更精准到位。
经过专业评测,优化后的豆包语音模型在小说演播场景,CMOS(Comparative Mean Opinion Score,与真人打对比分的一种主观评分方式)已达一流主播的 90%+ 效果。
△优化后的豆包语音模型结构技术落地番茄小说,惠及听书用户
豆包语音大模型团队以王明军、李满超两位演播圈大咖的声音为基础,采用新技术合成的千部有声书,已上线番茄小说,题材覆盖了历史、悬疑、灵异、都市、腦洞、科幻等热门书目类型。
据了解,未来豆包语音模型会继续探索前沿科技与业务场景的结合,追求更极致的 " 听 " 体验。
豆包语音模型合成的小说音色效果
王明军演播试听:
李满超演播试听: