找回密码
 立即注册
搜索

谷歌再获语音辨认新停顿:应用序列转导来完成多人语音辨认和说话人分类

雷锋网 AI 科技回复按:从 WaveNet 到 Tacotron,再到 RNN-T,谷歌不断站在语音人工智能技术的最前沿。近日,他们又将多人语音辨认和说话人分类成绩交融在了同一个网络模型中,在模型功能上获得了严重的打破。

对于自动了解人类音频的义务来说,辨认「谁说了什么」(或称「说话人分类」)是一个关键的步骤。例如,在一段医生和患者的对话中,医生问:「你按时服用心脏病药物了吗?」患回答道:「Yes」。这与医生反问患者「Yes?」的意义是有本质区别的。

传统的说话人分类(speaker diarization,SD)系统有两个步骤。在第一步中,系统将检测声谱中的变化,从而确定在一段对话中,说话人什么时分改变了;在第二步中,系统将辨认出整段对话中的各个说话人。这种基础的多步方法(相关阅读:https://ieeexplore.ieee.org/document/1202280/)几乎曾经被运用了 20 多年,而在么长的工夫内,研讨者们仅仅在「说话人变化检测」部分提升了模型功能。

近年来,随着一种名为递归神经网络变换器(RNN-T,https://arxiv.org/abs/1211.3711)的新型神经网络模型的发展,我们如今拥有了一种合适的架构,它可以克制之前我们引见过的说话人分类系统(https://ai.googleblog.com/2018/11/accurate-online-speaker-diarization.html)的局限性,提升系统的功能。在谷歌最近发布的论文「Joint Speech Recognition and Speaker Diarization via Sequence Transduction」(论文地址:https://arxiv.org/abs/1907.05337)中,它们提出了一种基于 RNN-T 的说话人分类系统,证明了该系统在单词分类误差率从 20 % 降低到了 2%(功能提升了 10 倍),该工作将在 Interspeech 2019 上展现。

传统的说话人分类系统


传统的说话人分类系统依赖于人声的声学差异辨认出对话中不同的说话人。根据男人和女人的音高,仅仅运用简单的声学模型(例如,混合高斯模型),就可以在一步中相对容易地将他们区分开来。但是,想要区分处音高能够相近的说话者,说话者分类系统就需求运用多步方法了。首先,基于检测到的人声特征,运用一个变化检测算法将对话切分成平均的片段,我们希望每段仅仅包含一个说话人。接着,运用一个深度学习模型将上述说话人的声响片段映射到一个嵌入向量上。最后,在聚类阶段,会对上述嵌入聚类在不同的簇中,追踪对话中的同一个说话人。

在真实场景下,说话人分类系统与声学语音辨认(ASR)系统会并行化运转,这两个系统的输入将会被结合,从而为辨认出的单词分配标签。



传统的说话人分类系统在声学域中停止推断,然后将说话人标签覆盖在由独立的 ASR 系统生成的单词上。

这种方法存在很多不足,妨碍了该范畴的发展:

(1)我们需求将对话切分成仅仅包含以为说话人的语音的片段。否则,根据这些片段生成的嵌入就不能准确地表征说话人的声学特征。但是,实践上,这里用到的变化检测算法并不是十全十美的,会导致分割出的片段能够包含多位说话人的语音。

(2)聚类阶段要求说话人的数量已知,并且这一阶段对于输入的准确性非常敏感。

(3)系统需求在用于估计人声特征的片段大小和希冀的模型准确率之间做出艰难的权衡。片段越长,人声特征的质量就越高,由于此时模型拥有更多关于说话人的信息。这但是,这就带来了将较短的插入语分配给错误的说话人的风险。这将产生非常严重的后果,例如,在处理临床医学或金融范畴的对话的环境下,我们需求准确地追踪一定和否定的陈述。

(4)传统的说话人分类系统并没有一套方便的机制,从而应用在许多自然对话中非藏分明的言语学线索。例如,「你多久服一次药?」在临床对话中最有能够是医护人员说的,而不会是病人说的。相似地,「我们应该什么时分上交作业?」则最有能够是先生说的,而不是教师说的。言语学的线索也标志着说话人有很高的概率发生了改变(例如,在一个问句之后)。

但是,传统的说话人分类系统也有一些功能较好的例子,在谷歌此前发布的一篇博文中就引见了其中之一(博文地址:https://ai.googleblog.com/2018/11/accurate-online-speaker-diarization.html)。在此工作中,循环神经网络(RNN)的隐藏形状会追踪说话人,克制了聚类阶段的缺陷。而本文提出的模型则采用了不容的方法,引入了言语学线索。

集成的语音辨认和说话人分类系统


我们研发出了一种简单的新型模型,该模型不只完美地交融了声学和语音线索,而且将说话人分类和语音辨认义务交融在了同一个系统中。相较于相反环境下仅仅停止语音辨认的系统相比,这个集成模型并没有分明降低语音辨认功能。

我们看法到,很关键的一点是:RNN-T 架构非常适用于集成声学和言语学线索。RNN-T 模型由三个不同的网络组成:(1)转录网络(或称编码器),将声帧映射到一个潜在表征上。(2)预测网络,在给定先前的目的标签的状况下,预测下一个目的标签。(3)级联网络,交融上述两个网络的输入,并在该工夫步生成这组输入标签的概率分布。

请留意,在下图所示的架构中存在一个反馈循环,其中先前辨认出的单词会被作为输入前往给模型,这使得 RNN-T 模型可以引入言语学线索(例如,成绩的结尾)。



集成的语音辨认和说话人分类系统表示图,该系统同时推断「谁,在何时,说了什么」

在图形处理单元(GPU)或张量处理单元(TPU)这样的加速器上训练 RNN-T 并不是一件容易的事,这是由于损失函数的计算需求运转「前向推导-反向传播」算法,该过程触及到一切能够的输入和输入序列的对齐。最近,该成绩在一种对 TPU 敌对的「前向-后向」算法中得到了处理,它将该成绩重新定义为一个矩阵乘法的序列。我们还应用了TensorFlow 平台中的一个高效的 RNN-T 损失的完成,这使得模型开发可以迅速地停止迭代,从而训练了一个非常深的网络。

这个集成模型可以直接像一个语音辨认模型一样训练。训练运用的参考译文包含说话人所说的单词,以及紧随其后的指定说话人角色的标签。例如,「作业的截止日期是什么时分?」,「我希望你们在明天上课之前上交作业」。当模型根据音频和相应的参考译文样本训练好之后,用户可以输入对话记录,然后得到方式相似的输入结果。我们的分析阐明,RNN-T 系统上的改进会影响到一切类型的误差率(包括较快的说话者转换,单词边界的切分,在存在语音覆盖的状况下错误的说话者对齐,以及较差的音频质量)。此外,相较于传统的系统,RNN-T 系统展现出了分歧的功能,以每段对话的平均误差作为评价目的时,方差有分明的降低。



传统系统和 RNN-T 系统错误率的对比,由人类标注者停止分类。

此外,该集成模型还可以预测其它一些标签,这些标签对于生成对读者愈加敌对的 ASR 译文是必需的。例如,我们曾经可以运用婚配好的训练数据,经过标点符号和大小写标志,提升译文质量。相较于我们之前的模型(单独训练,并作为一个 ASR 的后处理步骤),我们的输入在标点符号和大小写上的误差更小。

如今,该模型曾经成为了我们了解医疗对话的项目(https://ai.googleblog.com/2017/11/understanding-medical-conversations.html)中的一个标准模块,并且可以在我们的非医疗语音服务中被广泛采用。

Via https://ai.googleblog.com/2019/08/joint-speech-recognition-and-speaker.html雷锋网雷锋网

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复

使用道具 举报

大神点评3

我觉得不错,太厉害了
回复

使用道具 举报

床上小桌 2020-6-14 07:24:20 显示全部楼层
那个啥吧。。。就是这个。。。你知道我要说啥吧。。。
回复

使用道具 举报

珍爱生命,果断回帖。
回复

使用道具 举报

高级模式
B Color Image Link Quote Code Smilies