Speaker Verification,声纹验证详解——语音信号处理项目学习(九)

本文主要是介绍Speaker Verification,声纹验证详解——语音信号处理项目学习(九),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

参考文献:

Speaker Verification哔哩哔哩bilibili

2020 年 3月 新番 李宏毅 人类语言处理 独家笔记 声纹识别 - 16 - 知乎 (zhihu.com)

(2) Meta Learning – Metric-based (1/3) - YouTube

如何理解等错误率(EER, Equal Error Rate)?请不要只给定义 - 知乎 (zhihu.com)

本次省略所有引用论文

目录

一、Introduction

模型的简单介绍

评价指标 Equal Error Rate(EER)

二、Speaker Embedding 讲解

模型框架

数据集

Speaker Embedding 制作方法

三、End-to-End 端到端学习

训练数据准备

模型设计

四、一些补充的问题与回答


 

一、Introduction

模型的简单介绍
  • 声音模型有这么一大类,其模型主要需要完成的任务是,输入一段语音,输出某一类别。

  • 相关的模型或任务有:

    • Emotion Recognition:情绪识别,输入语音,判断语者情绪如何。

    • Sound Event Detection:声音事件侦测,输入语音,判断发生了什么事,可以用于安保等行业。

    • Autism Recognition:自闭症识别,输入语音,判断是否患有自闭症。

    • Keyword Spotting:关键词识别,输入语音,判断指定的关键词是否在语音中出现过。

  • 那么采用这类模型,和语者有关的任务有哪些呢?

    • Speaker Recognition / Identification:语者识别,判断一段语音是谁说的。其本质就是使用多语者的语料库进行训练,然后再输入一段语音,通过模型输出所有语者的 Confidence(可信度),谁的可信度高就判断为这段信号是谁说的。这里我们不再过多介绍。

    • Speaker Verification:语者验证,输入两段语音,判断这两段语音是否是同一个人说的。给定之前一段记录好的声音和一段新输入的声音,模型会判断二者的相似度,并输出一个表示相似度的概率(图中scalar为标量的意思),通过阈值来判断二者是否是同一个人说的。典型的应用如银行客服判断取钱的人是否是存钱者。

    • Speaker Diarization:语者分段标记,输入一段语音,识别这段语音中,谁在何时说了话。SD 系统先要把声音信号进行分割(Segmentation)。通常每一段是一句话,或是一个段落。接下来我们再做 聚类(Clustering)来标记哪一段是同一个人声。如果不同说话人的数量是已知的,那么只需要知道这段话是谁讲的就好,比如电话场景通常是两个人。如果不知道是多少人在说话,比如会议场景,我们就需要把属于同一个人的声音聚成一类,并给它一个编号。这里就需要用到一些前两种技术,也就是语者识别和声纹识别的技术。

评价指标 Equal Error Rate(EER)
  • Equal Error Rate(EER),中文名叫 等错误率 。在 Speaker Verification 模型中,我们通常需要人为设置一个阈值,来决定二者是否为同一个人说的。很自然的我们能知道,设置不同的阈值,模型的表现自然也不同。阈值选择通常会留给用户。那么我们怎么去评判两个模型孰优孰劣呢?

  • 我们会把所有的阈值都穷举出来,画成一个图像,计算 EER。我们先给一些简单的样例。

    • 如果我直接把阈值设为1.0,那么对于这个模型来说,无论是哪两段语音输入进来,模型都会判断为不是同一个人所说。

    • 如果我把阈值设的挺高,比如0.8,那么这个模型来说,可能使用同一个语者的两段音频,被误判为不同人说的,这个误判率【False Negative Rate】会比较高,因为你的标准比较苛刻;不过使用不同语者的两段音频,被误判为同一人说的,这个误判率【False Positive Rate】就比较低了。

    • 如果之后我直接把阈值设为0,那么对于这个模型来说,无论是哪两段语音输入进来,模型都会判断为就是同一个人所说,利用刚刚的概念我们可以说,FNR = 0,FPR = 1。

  • 最后,以 FPR 数值为 x 轴,以 FNR 数值为 y 轴,我们将图像画出,而 EER 就是当 FPR = FNR 时,二者的大小。

二、Speaker Embedding 讲解

模型框架
  • 那么 SV 模型具体长什么样子呢?传统的 SV 模型通常是采用了某些方法,输入一段声音讯号,就能输出一个向量来表示语者特征。这个语者特征也就是我们所说的 Speaker Embedding。有了这个方法,我们就能将两段声音讯号都转为 Speaker Embedding,然后去比较二者的相似度即可。

  • 模型使用具体步骤:

    • Stage 1:Development,即模型训练,使用语料库对模型进行训练,从而让模型学习到 Speaker Embedding 的编码方式。

    • Stage 2:Enrollment,即声纹录入,需要说话者将自己的声音录入系统。系统会把这些声音一个个输入模型,得到语者嵌入,再取平均,储存到数据库。

    • Stage 3:Evaluation,即声纹评估,也就是验证阶段,系统会把检测到的人声输入模型得到另一个语者嵌入,与之前储存到的嵌入做比较,得出是否是同一个人的结论。

    值得一提的是,刚刚所说的步骤中,训练模型使用的语料库的语者并不会在后续模型使用中出现。

  • 而 SV 模型的这一套思想,其实和 Metric-based meta learning 思想近乎相同。详情可以参考(2) Meta Learning – Metric-based (1/3) - YouTube。

数据集
  • 训练 SV 抽取 Speaker Embedding 的模型需要一个多大的数据集呢?谷歌用了 18000 个语者,总共 36M 个句子去训练模。实验跑不动这种数据。一般我们会用相对小一些的 Benchmark Corpus(基准语料库),比如 VoxCeleb 数据集来训练。

Speaker Embedding 制作方法
  • 早期采用的方法是 i-vector,不管输入的语音有多长,最终都会生成一个400维的 i-vector,来表示声纹信息。i 意思是 identity。i-Vector 是一个非常强的方法。在 16 年之前都没有被 DL 打败。

  • 而最早采用 deep learning 来抽取 Speaker Embedding 的模型就是 d-vector。它是截取一小段声音讯号(因为后面使用的 DNN 输入长度是固定的),送到 DNN中去,经过多层网络后最终输出。在训练过程中,我们一直将这个模型当成 Speaker Recognition 模型来进行训练,即最后输出是哪个语者讲的话。而模型训练完后,其最后一个隐藏层的输出我们将它拿出来,这就是我们要的 d-vector

    我们不用最后一层 output layer 的输出,就是因为此时它将要决定是声音来源于哪个语者,所以它的维度是和训练时语者数目有关的,而我们并不想要这样的 vector,所以使用的是最后一个隐藏层(hidden layer)的输出。

  • 当然,刚刚的方法只是看了一小段语音而已。想要看完一整段语音也很简单,每一个小段都进行上述的操作,最终取平均,就得到最终的 d-vector了。在 2014 年,d-vector 可以做到与 i-vector 相当的效果。不过这也只是让大家知道,原来深度学习可以做这玩意。

  • 到了2018 年,出了 x-vector。它会把每个语音片段通过模型后的输出用一种方式聚合起来,而不是像 d-vector 那样简单的取平均。这种方式是取每个维度的均值和方差向量,拼接起来后,再输入给一个模型做 Speaker Recognition 任务。到时取这个模型输出的隐层,作为表征声纹信息的 x-vector。它与 d-vector 不同在,它考虑的是一整段的语音信息。这里也可以考虑用 LSTM 来做聚合。

  • 当然也可以用 Attention 来做啦,算出每一个语音片段的注意力权重,然后再做加权求和。还有从图像那边借来的方法 NetVLAD,其主要思想是一段语音中并非所有的片段都是人声,其中有的是环境噪音。我们可以想办法从中只取出人声的部分。具体细节这里不再赘述。

  • 综合这些方法,我们都是先按照 Speaker Recognition 任务来进行模型的训练,然后再抽取输出,拿到 Speaker Verification 任务中去用。

三、End-to-End 端到端学习

此前,我们都是想办法得到 Speaker Embedding,然后计算二者的相似度来完成任务的。这是分离的方法,那我们有没有什么办法将“计算 Speaker Embedding”和“计算相似度”二者联合起来做 joint learning,一起去学习训练呢?

训练数据准备
  • 首先我们需要准备我们训练的数据。在以前的任务中,我们手上有的资料是一堆的语者,每个语者说了一堆的话。假设我们的 Enrollment 环节要求语者要说 k 句话,那么我们就这么准备资料:

    • Positive Examples:从某个语者说的话中挑出 k 句话当作注册的句子输入进模型中,取同一个语者的另一句话当作测试的句子再输入进模型中,最终输出的数值要越大越好。

    • Negative Examples:从某个语者说的话中挑出 k 句话当作注册的句子输入进模型中,取另一个语者的一句话当作测试的句子再输入进模型中,最终输出的数值要越小越好。

  • 当然,除了这种准备数据集的方法,我们还有其他各种各样的方法,比如 Generalized E2E(GE2E,[Wan, et al., ICASSP’18])等等,这里不再赘述。

模型设计
  • 端到端模型它内部的构造是完全仿造传统的 SV 的模型。有 K 个注册的句子,每一个句子都会进入一个网络中并产生一个 vector 来充当 Speaker Embedding,用来测试的句子也是一样,经过一个网络生成一个 vector。

  • 接下来,我们取注册句子生成的 vector 做个平均,得到一个 vector,然后再将其与刚刚测试句子生成的 vector 计算相似度,这里也可以使用一个网络来计算相似度,最终得到一个分数。怎样端对端训练?不同人讲的语音我们就希望分数能小点,同一个人讲的声音我们就希望分数大点。

  • 常用的相似度计算是先计算二者的余弦相似度,然后再做一些小变换,如乘上一个权重,然后再加一个偏置。

  • 这种端对端的模型可以分成 Text-dependent 和 Text-independent。若注册和评估说的都是相同文字内容,就是 Text-dependent,比如必须要说同样的暗语“芝麻开门”。若可以是不同的文字内容,就是Text-independent。

  • 如果想做 Text-independent,那么我们在抽取 Speaker Embedding 类似物的时候就需要尽可能只抽取语者信息,而不去抽取内容信息。在这里,我们可以引入 GAN 的思想,来对抗训练。我们可以在 生成的 Speaker Embedding 后面接上一个 Discriminator(判别器),来识别文字内容(有点像 ASR)。而我们训练的目标又多了一个,输出 Speaker Embedding 的网络要想办法去骗过这个判别器,尽可能让它无法从声纹嵌入中识别出文字内容。

四、一些补充的问题与回答

  1. EER 的意义是什么:

    因为此模型的错误有两种,一种是明明是同一个人说的,你说是不同人;还有一种是话是不同人说的,你却判断是同一个人说的。那么这就要涉及到两种错误率的 trade-off(权衡折衷),那么 EER 就是看当这两种错误的错误率相同时大小为多少,以此来评判模型优劣。

    这里还可以参考知乎上的回答:如何理解等错误率(EER, Equal Error Rate)?请不要只给定义 - 知乎 (zhihu.com),其实大差不差啦。

这篇关于Speaker Verification,声纹验证详解——语音信号处理项目学习(九)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/408640

相关文章

Python中edge-tts实现便捷语音合成

《Python中edge-tts实现便捷语音合成》edge-tts是一个功能强大的Python库,支持多种语言和声音选项,本文主要介绍了Python中edge-tts实现便捷语音合成,具有一定的参考价... 目录安装与环境设置文本转语音查找音色更改语音参数生成音频与字幕总结edge-tts 是一个功能强大的

嵌入式Linux驱动中的异步通知机制详解

《嵌入式Linux驱动中的异步通知机制详解》:本文主要介绍嵌入式Linux驱动中的异步通知机制,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录前言一、异步通知的核心概念1. 什么是异步通知2. 异步通知的关键组件二、异步通知的实现原理三、代码示例分析1. 设备结构

解决Maven项目报错:failed to execute goal org.apache.maven.plugins:maven-compiler-plugin:3.13.0的问题

《解决Maven项目报错:failedtoexecutegoalorg.apache.maven.plugins:maven-compiler-plugin:3.13.0的问题》这篇文章主要介... 目录Maven项目报错:failed to execute goal org.apache.maven.pl

Python中Flask模板的使用与高级技巧详解

《Python中Flask模板的使用与高级技巧详解》在Web开发中,直接将HTML代码写在Python文件中会导致诸多问题,Flask内置了Jinja2模板引擎,完美解决了这些问题,下面我们就来看看F... 目录一、模板渲染基础1.1 为什么需要模板引擎1.2 第一个模板渲染示例1.3 模板渲染原理二、模板

Redis中6种缓存更新策略详解

《Redis中6种缓存更新策略详解》Redis作为一款高性能的内存数据库,已经成为缓存层的首选解决方案,然而,使用缓存时最大的挑战在于保证缓存数据与底层数据源的一致性,本文将介绍Redis中6种缓存更... 目录引言策略一:Cache-Aside(旁路缓存)策略工作原理代码示例优缺点分析适用场景策略二:Re

Python开发文字版随机事件游戏的项目实例

《Python开发文字版随机事件游戏的项目实例》随机事件游戏是一种通过生成不可预测的事件来增强游戏体验的类型,在这篇博文中,我们将使用Python开发一款文字版随机事件游戏,通过这个项目,读者不仅能够... 目录项目概述2.1 游戏概念2.2 游戏特色2.3 目标玩家群体技术选择与环境准备3.1 开发环境3

Java注解之超越Javadoc的元数据利器详解

《Java注解之超越Javadoc的元数据利器详解》本文将深入探讨Java注解的定义、类型、内置注解、自定义注解、保留策略、实际应用场景及最佳实践,无论是初学者还是资深开发者,都能通过本文了解如何利用... 目录什么是注解?注解的类型内置注编程解自定义注解注解的保留策略实际用例最佳实践总结在 Java 编程

MySQL数据库约束深入详解

《MySQL数据库约束深入详解》:本文主要介绍MySQL数据库约束,在MySQL数据库中,约束是用来限制进入表中的数据类型的一种技术,通过使用约束,可以确保数据的准确性、完整性和可靠性,需要的朋友... 目录一、数据库约束的概念二、约束类型三、NOT NULL 非空约束四、DEFAULT 默认值约束五、UN

Python使用Matplotlib绘制3D曲面图详解

《Python使用Matplotlib绘制3D曲面图详解》:本文主要介绍Python使用Matplotlib绘制3D曲面图,在Python中,使用Matplotlib库绘制3D曲面图可以通过mpl... 目录准备工作绘制简单的 3D 曲面图绘制 3D 曲面图添加线框和透明度控制图形视角Matplotlib

MySQL中的分组和多表连接详解

《MySQL中的分组和多表连接详解》:本文主要介绍MySQL中的分组和多表连接的相关操作,本文通过实例代码给大家介绍的非常详细,感兴趣的朋友一起看看吧... 目录mysql中的分组和多表连接一、MySQL的分组(group javascriptby )二、多表连接(表连接会产生大量的数据垃圾)MySQL中的