[深度学习 - TTS自学之路] 基于fastspeech2 学习TTS流程以及部分代码梳理

2023-11-21 09:31

本文主要是介绍[深度学习 - TTS自学之路] 基于fastspeech2 学习TTS流程以及部分代码梳理,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

深度学习方案 - TTS流程以及代码梳理 - fastspeech2

参考源码:https://github.com/ming024/FastSpeech2

最近好长一阵子没有写文章了,一方面是公司里做的一些项目不好公开写成文章,另一方面由于教育双减政策的影响,很多项目临时被停止了,所以这阵子,对原项目的维护以及新领域(音频)方面的自研学习,基本都在忙着,个人时间很少。
另外打个小广告,科室这边也逐渐对外写一些技术文章,主要在微信公众号:“ AI炼丹术 ”上发布。目前发布了很多关于端侧优化部署的文章、OCR相关技术文章等。后续我可能也会参与一些文章的写作发布。(可能关于人体相关技术或正在自我学习的音频方向)有兴趣的小伙伴可以关注一下,如果有帮助的话可以说是咸鱼推荐来的。。😏

本文的内容属于音频领域中TTS(text to speech),个人正在摸索,具体细节上的理解可能会有误,见谅。
另外还有一个关于音频的资料总结(来自一个知乎大佬:李永强):http://yqli.tech/page/tts_paper.html

一、步骤:

1. 前端处理

  • 输入文本 text,例如:text = 大家好!
  • 文本转拼音,例如:pinyins = ['da4', 'jia1', 'hao3']
from pypinyin import pinyin, Stylepinyins = [p[0]for p in pinyin(text, style=Style.TONE3, strict=False, neutral_tone_with_five=True)]
  • 拼音转韵律,例如:phones = ['d', 'a4', 'j', 'ia1', 'h', 'ao3']->'phones = {d a4 j ia1 h ao3}'
for p in pinyins: # lexicon 韵律表字典if p in lexicon:phones += lexicon[p]else:phones.append("sp") # 停顿
  • 韵律map成id,例如:sequence = [151, 174, 155, 226, 154, 193]
def text_to_sequence(text, cleaner_names):"""Converts a string of text to a sequence of IDs corresponding to the symbols in the text.The text can optionally have ARPAbet sequences enclosed in curly braces embeddedin it. For example, "Turn left on {HH AW1 S S T AH0 N} Street."Args:text: string to convert to a sequencecleaner_names: names of the cleaner functions to run the text throughReturns:List of integers corresponding to the symbols in the text"""sequence = []# Check for curly braces and treat their contents as ARPAbet:while len(text):m = _curly_re.match(text)if not m:sequence += _symbols_to_sequence(_clean_text(text, cleaner_names))breaksequence += _symbols_to_sequence(_clean_text(m.group(1), cleaner_names))sequence += _arpabet_to_sequence(m.group(2))text = m.group(3)return sequence

2. 声学模型 Fastspeech 2

  • 模型主要由三部分组成,encoder、adaptor、decoder;
  • encoder:韵律转换成数字信号后作为模型输入;
output = self.encoder(texts, src_masks)
  • VarianceAdaptor:输入音色 speaker、音高 pitch、音量 energy、语速 duration以及encoder部分的output; # speaker 这个源码里面加入multi-speaker TTS,即可以切换多个人的声音进行输出。

多人数据训练,通过参数speaker的调节音色。Alshell3 数据集由多个人的音色。

{"SSB1781": 0, "SSB1274": 1, "SSB1585": 2, "SSB1055": 3, "SSB1020": 4, "SSB0668": 5, "SSB1625": 6, ...} # speaker.json文件

p_control, e_control, d_control 作为音高、音量、语速的参数输入,输出合成的梅尔频谱(频谱包含时长信息)。

个人猜测这一块的作用决定了音频最终的音色、音高、音量、语速。可以通过这块调节,不同音量、语速或者个性化声音。

if self.speaker_emb is not None: # output = output + self.speaker_emb(speakers).unsqueeze(1).expand(-1, max_src_len, -1) # 将speaker加入encoder的output作为variance_adaptor部分的输入(output, p_predictions, e_predictions, log_d_predictions, d_rounded, mel_lens, mel_masks) = self.variance_adaptor(output, src_masks, mel_masks,
max_mel_len, p_targets, e_targets, d_targets, p_control, e_control, d_control)
  • decoder:将variance_adaptor的输出进行解码,生成梅尔频谱(维度一般为 T*80)或声波(维度一般为T * hop_size)。

fastspeech2 最终输出mel-spectrogram 梅尔频谱,梅尔频谱并不能直接生成音频,它需要再重构才能生成声波,进而生成音频,所以生成的梅尔频谱还需要经过声码器 vocoder,才能得到waveform。(mel-gan 、hifi-gan…);

而fastspeech2S 将声码器一起端到端训练,最终直接输出声波/音频。(2s找不到开源源码)

声波维度T * hop_size:这实际是一个上采样的过程,上采样的倍数为hop size*,*即一帧梅尔频谱特征要还原生成hop size个采样点; 如果音频采样率为22050,hop size设为256,则上采样的倍数为256。

output, mel_masks = self.decoder(output, mel_masks)
output = self.mel_linear(output) 
postnet_output = self.postnet(output) + output # 这个应该就是输出的梅尔频谱,原论文没有postnet,这层结构是源码作者自己加上的return (output, postnet_output, p_predictions, e_predictions,log_d_predictions, d_rounded, src_masks, mel_masks, src_lens, mel_lens,)

3. 声码器 vocoder - mel2wav

  • 声码器的作用:决定了合成音频的音质高低。
  • 个人猜测声码器可以解决合成的音频有噪声/人声不干净、人声不自然等情况,即训练作用:起润色音频(去噪、声调),而音频的音色、音高、音量、音速主要还是取决于声学模型。
  • 源码中提供了两种声码器, MelGAN 、 HiFi-GAN vocoder,我这边尝试的是hifi-gan。
  • 这个TTS源码中没有声码器训练的部分代码,higi-gan原始仓库:https://github.com/ranchlai/hifi-gan;

声码器的输入:梅尔频谱 - 一般为 T*80 ; 如 T为频谱长度,与音频长短相关。

声码器的输出:声波 - 一般为 T * hopsize (T在频谱上有)。waveform 长度:lengths = T * preprocess_config [“preprocessing”] [“stft”] [“hop_length”]

sampling_rate = preprocess_config["preprocessing"]["audio"]["sampling_rate"] # 加载配置-采样率
wavfile.write(os.path.join(path, "{}.wav".format(basename)), sampling_rate, wav) # 保存音频 (, lengths)

这篇关于[深度学习 - TTS自学之路] 基于fastspeech2 学习TTS流程以及部分代码梳理的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/401445

相关文章

深度解析Python中递归下降解析器的原理与实现

《深度解析Python中递归下降解析器的原理与实现》在编译器设计、配置文件处理和数据转换领域,递归下降解析器是最常用且最直观的解析技术,本文将详细介绍递归下降解析器的原理与实现,感兴趣的小伙伴可以跟随... 目录引言:解析器的核心价值一、递归下降解析器基础1.1 核心概念解析1.2 基本架构二、简单算术表达

深度解析Java @Serial 注解及常见错误案例

《深度解析Java@Serial注解及常见错误案例》Java14引入@Serial注解,用于编译时校验序列化成员,替代传统方式解决运行时错误,适用于Serializable类的方法/字段,需注意签... 目录Java @Serial 注解深度解析1. 注解本质2. 核心作用(1) 主要用途(2) 适用位置3

Java MCP 的鉴权深度解析

《JavaMCP的鉴权深度解析》文章介绍JavaMCP鉴权的实现方式,指出客户端可通过queryString、header或env传递鉴权信息,服务器端支持工具单独鉴权、过滤器集中鉴权及启动时鉴权... 目录一、MCP Client 侧(负责传递,比较简单)(1)常见的 mcpServers json 配置

Redis实现高效内存管理的示例代码

《Redis实现高效内存管理的示例代码》Redis内存管理是其核心功能之一,为了高效地利用内存,Redis采用了多种技术和策略,如优化的数据结构、内存分配策略、内存回收、数据压缩等,下面就来详细的介绍... 目录1. 内存分配策略jemalloc 的使用2. 数据压缩和编码ziplist示例代码3. 优化的

redis-sentinel基础概念及部署流程

《redis-sentinel基础概念及部署流程》RedisSentinel是Redis的高可用解决方案,通过监控主从节点、自动故障转移、通知机制及配置提供,实现集群故障恢复与服务持续可用,核心组件包... 目录一. 引言二. 核心功能三. 核心组件四. 故障转移流程五. 服务部署六. sentinel部署

Maven中生命周期深度解析与实战指南

《Maven中生命周期深度解析与实战指南》这篇文章主要为大家详细介绍了Maven生命周期实战指南,包含核心概念、阶段详解、SpringBoot特化场景及企业级实践建议,希望对大家有一定的帮助... 目录一、Maven 生命周期哲学二、default生命周期核心阶段详解(高频使用)三、clean生命周期核心阶

SpringBoot集成XXL-JOB实现任务管理全流程

《SpringBoot集成XXL-JOB实现任务管理全流程》XXL-JOB是一款轻量级分布式任务调度平台,功能丰富、界面简洁、易于扩展,本文介绍如何通过SpringBoot项目,使用RestTempl... 目录一、前言二、项目结构简述三、Maven 依赖四、Controller 代码详解五、Service

Python 基于http.server模块实现简单http服务的代码举例

《Python基于http.server模块实现简单http服务的代码举例》Pythonhttp.server模块通过继承BaseHTTPRequestHandler处理HTTP请求,使用Threa... 目录测试环境代码实现相关介绍模块简介类及相关函数简介参考链接测试环境win11专业版python

Python从Word文档中提取图片并生成PPT的操作代码

《Python从Word文档中提取图片并生成PPT的操作代码》在日常办公场景中,我们经常需要从Word文档中提取图片,并将这些图片整理到PowerPoint幻灯片中,手动完成这一任务既耗时又容易出错,... 目录引言背景与需求解决方案概述代码解析代码核心逻辑说明总结引言在日常办公场景中,我们经常需要从 W

使用Spring Cache本地缓存示例代码

《使用SpringCache本地缓存示例代码》缓存是提高应用程序性能的重要手段,通过将频繁访问的数据存储在内存中,可以减少数据库访问次数,从而加速数据读取,:本文主要介绍使用SpringCac... 目录一、Spring Cache简介核心特点:二、基础配置1. 添加依赖2. 启用缓存3. 缓存配置方案方案