Kaldi语音识别技术(四) ----- 完成G.fst的生成

2024-03-28 06:10

本文主要是介绍Kaldi语音识别技术(四) ----- 完成G.fst的生成,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Kaldi语音识别技术(四) ----- 完成G.fst的生成

文章目录

  • Kaldi语音识别技术(四) ----- 完成G.fst的生成
    • 一、N-Gram 语言模型简介
    • 二、环境准备
      • srilm工具的安装
    • 三、文件准备
      • (一) 准备语料
        • 1. 使用Python生成语料
        • 2. 使用awk 快速生成语料
      • (二) 语言模型
        • 1. 统计词频
        • 2. 生成语言模型
        • 3. 计算困惑度
    • 四、G.fst的生成及查看
        • 1. 使用 format_lm_sri.sh 脚本生成
        • 2. 使用 arpa2fst 工具生成
        • 3.G.fst文本可视化
    • 五、小的G.fst
        • 1. 创建小的语料
        • 2. 生成小语料的统计文件
        • 3. 生成小语料的语言模型
        • 4. 生成小的G.fst
        • 5. G.fst文本可视化
        • 6.G.fst图形可视化
    • 六、封装成Shell脚本

一、N-Gram 语言模型简介

N-Gram是大词汇连续语音识别中常用的一种语言模型,对中文而言,我们称之为汉语语言模型(CLM, Chinese Language Model)。汉语语言模型利用上下文中相邻词间的搭配信息,可以实现到汉字的自动转换,汉语语言模型利用上下文中相邻词间的搭配信息,在需要把连续无空格的拼音、笔划,或代表字母或笔划的数字,转换成汉字串(即句子)时,可以计算出具有最大概率的句子,从而实现到汉字的自动转换,无需用户手动选择,避开了许多汉字对应一个相同的拼音(或笔划串,或数字串)的重码问题。

该模型基于这样一种假设,第N个词的出现只与前面N-1个词相关,而与其它任何词都不相关,整句的概率就是各个词出现概率的乘积。这些概率可以通过直接从语料中统计N个词同时出现的次数得到。常用的是二元的Bi-Gram和三元的Tri-Gram。

二、环境准备

srilm工具的安装

•这是生成ngram的工具-可以用来生成G.fst

•源站下载 http://www.speech.sri.com/projects/srilm/download.html(需要填写信息,国内目前无法访问)

•下载见这里 点我免费下载srilm-1.7.3.tar.gz和srilm-1.7.1.tar.gz

•将下载的srilm-1.7.3.tar.gz上传到kaldi目录的tools目录中 我的路径是~/kaldi/kaldi/tools

mv srilm-1.7.3.tar.gz srilm.tar.gz # 重命名
cd ~/kaldi/kaldi/tools
vim install_srilm.sh # 打开kaldi自带的安装脚本

该脚本需要从国外下载,先注释19~33行再执行,它会帮我们自动安装srilm,如下:

在这里插入图片描述

sh install_srilm.sh # 执行安装脚本

安装成功如下所示:

在这里插入图片描述

按照提示执行 . ./env.sh刷新环境变量

输入ng按两次TAB键出现以下内容说明srilm安装成功,可以正常使用

在这里插入图片描述

可以添加环境变量,避免每次都要执行 env.sh 激活

echo "export PATH=/root/kaldi/kaldi/tools/srilm/bin/i686-m64:/root/kaldi/kaldi/tools/srilm/bin" >> /etc/profilesource /etc/profile

创建G的文件夹

mkdir -p ~/kaldi/data/G/normal
mkdir -p ~/kaldi/data/G/G_learn

三、文件准备

(一) 准备语料

在这里插入图片描述

1. 使用Python生成语料

这里我们使用之前生成好的 text 文件 直接生成

# -*- coding: utf-8 -*-
# @Author : yxn
# @Date : 2022/11/13 12:23 
# @IDE : PyCharm(2022.2.3) Python3.9.13
def get_lm(data):"""使用python脚本生成语料"""lm = []with open(data, "r", encoding="utf-8") as f:for line in f.readlines():lm.append(line.strip("\n").strip().split(" ")[1:])# # 保存语料save_path = "/root/kaldi/data/G/normal/text.lm"with open(save_path, "w", encoding="utf-8") as f:for i in lm:f.writelines(" ".join(i) + "\n")print("text.lm 语料生成成功! ")if __name__ == '__main__':data_path = "/root/kaldi/kaldi_file/text"  # 之前数据处理生成的text文件get_lm(data_path)

生成的语料如下:

在这里插入图片描述

2. 使用awk 快速生成语料
awk -F ' ' '{for (i=2;i<=NF;i++) printf("%s ",$i);print ""}' /root/kaldi/kaldi_file/text > ~/kaldi/data/G/normal/text.lm

效果和上面的python脚本是一模一样的,但是效率要高得多得多!

(二) 语言模型

1. 统计词频

在这里插入图片描述

ngram-count -text text.lm -order 3 -write train.text.count
#•参数详解:
#•-text 后接我们准备的语料
#•-order 后接我们的几元模型,即N-Gram 中的N
#•-write 统计的词频文件放入的文件

结果如下图所示:
在这里插入图片描述

2. 生成语言模型

在这里插入图片描述

ngram-count -read train.text.count -order 3 -lm LM -interpolate -kndiscount
#•参数详解:
#•-read 后接我们生成的语料统计文件
#•-order 后接我们的几元模型,即N-Gram 中的N
#•-lm 生成的语言模型名称
#•-interpolate 平滑函数 插值平滑
#•-kndiscount 回退概率函数

结果如下图所示:

在这里插入图片描述

3. 计算困惑度
ngram -ppl text.lm -order 3 -lm LM -debug 1

结果如下图所示:
在这里插入图片描述

四、G.fst的生成及查看

1. 使用 format_lm_sri.sh 脚本生成

推荐使用该脚本生成,其底层原理就是调用了arpa2fst命令

cd ~/kaldi/data
utils/format_lm_sri.sh L/lang G/normal/LM dict/lexicon.txt G/normal
#•参数详解:
#•第一个参数 lang文件夹
#•第二个参数 使用SRI生成的LM
#•第三个参数 词典
#•第四个参数 G.fst生成的位置
# Usage: utils/format_lm_sri.sh [options] <lang-dir> <arpa-LM> [<lexicon>] <out-dir>
#  E.g.: utils/format_lm_sri.sh data/lang data/local/lm/foo.kn.gz data/local/dict/lexicon.txt data/lang_test

执行成功如下:
在这里插入图片描述

可以看到 ~/kaldi/data/G/normal路径下面有了如下文件:

在这里插入图片描述

2. 使用 arpa2fst 工具生成

与上面的方法类似,命令如下

arpa2fst --disambig-symbol=#0 --read-symbol-table=L/lang/words.txt G/normal/LM G/test/G.fst 
#•参数详解:
#•第一个参数 消歧符号
#•第二个参数 words.txt
#•第三个参数 使用SRI生成的LM
#•第四个参数 G.fst生成的位置
#Usage: arpa2fst [opts] <input-arpa> <output-fst>
# e.g.: arpa2fst --disambig-symbol=#0 --read-symbol-table=data/lang/words.txt lm/input.arpa G.fst

输出结果如下:
在这里插入图片描述

3.G.fst文本可视化
cd ~/kaldi/data/G/normal
fstprint --isymbols=words.txt --osymbols=words.txt G.fst > G_detail.txt
# 参数中,由于G.fst实际是一个fsa(有限状态接收器),所以输入和输出都是词

在这里插入图片描述

五、小的G.fst

同前面L.fst 一样,学习过程当中我们同样使用一个小的G.fst来进行学习

这里我们同样以 “今天天气真好 ”、“今天天气还不行 ” 这2句话来制作小的可视化数据

1. 创建小的语料
cd ~/kaldi/data/G/G_learn
vim text.lm
# 输入以下内容
今天 天气 真好
今天 天气 还 不行
# wq保存退出
2. 生成小语料的统计文件
ngram-count -text text.lm -order 3 -write train.text.count
3. 生成小语料的语言模型
ngram-count -read train.text.count -order 2 -lm LM

特别提醒: 由于小语料数据量太小,故不能使用平滑函数和回退函数

4. 生成小的G.fst
cd ~/kaldi/data
utils/format_lm_sri.sh L/lang_learn G/G_learn/LM dict/lexicon.txt G/G_learn

在这里插入图片描述

5. G.fst文本可视化
cd ~/kaldi/data/G/G_learn
fstprint --isymbols=words.txt --osymbols=words.txt G.fst > G_learn_detail.txt

在这里插入图片描述

6.G.fst图形可视化
#(1)生成dot文件
fstdraw --isymbols=phones.txt --osymbols=words.txt G.fst > G.dot
#(2)绘图
dot -Tjpg -Gdpi300 G.dot > G.jpg # 不太清晰
dot -Tsvg G.dot > G.svg

下载到本地电脑进行查看如下

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-nCL7VucQ-1668614245175)(E:\滇西科技师范学院大三\语音识别技术kaldi\学习笔记三(G的生成)]\19.png)

六、封装成Shell脚本

后面有时间更新...

这篇关于Kaldi语音识别技术(四) ----- 完成G.fst的生成的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/854694

相关文章

Navicat数据表的数据添加,删除及使用sql完成数据的添加过程

《Navicat数据表的数据添加,删除及使用sql完成数据的添加过程》:本文主要介绍Navicat数据表的数据添加,删除及使用sql完成数据的添加过程,具有很好的参考价值,希望对大家有所帮助,如有... 目录Navicat数据表数据添加,删除及使用sql完成数据添加选中操作的表则出现如下界面,查看左下角从左

Qt如何实现文本编辑器光标高亮技术

《Qt如何实现文本编辑器光标高亮技术》这篇文章主要为大家详细介绍了Qt如何实现文本编辑器光标高亮技术,文中的示例代码讲解详细,具有一定的借鉴价值,有需要的小伙伴可以了解下... 目录实现代码函数作用概述代码详解 + 注释使用 QTextEdit 的高亮技术(重点)总结用到的关键技术点应用场景举例示例优化建议

Python中图片与PDF识别文本(OCR)的全面指南

《Python中图片与PDF识别文本(OCR)的全面指南》在数据爆炸时代,80%的企业数据以非结构化形式存在,其中PDF和图像是最主要的载体,本文将深入探索Python中OCR技术如何将这些数字纸张转... 目录一、OCR技术核心原理二、python图像识别四大工具库1. Pytesseract - 经典O

Python基于微信OCR引擎实现高效图片文字识别

《Python基于微信OCR引擎实现高效图片文字识别》这篇文章主要为大家详细介绍了一款基于微信OCR引擎的图片文字识别桌面应用开发全过程,可以实现从图片拖拽识别到文字提取,感兴趣的小伙伴可以跟随小编一... 目录一、项目概述1.1 开发背景1.2 技术选型1.3 核心优势二、功能详解2.1 核心功能模块2.

Python实现自动化Word文档样式复制与内容生成

《Python实现自动化Word文档样式复制与内容生成》在办公自动化领域,高效处理Word文档的样式和内容复制是一个常见需求,本文将展示如何利用Python的python-docx库实现... 目录一、为什么需要自动化 Word 文档处理二、核心功能实现:样式与表格的深度复制1. 表格复制(含样式与内容)2

Java中的登录技术保姆级详细教程

《Java中的登录技术保姆级详细教程》:本文主要介绍Java中登录技术保姆级详细教程的相关资料,在Java中我们可以使用各种技术和框架来实现这些功能,文中通过代码介绍的非常详细,需要的朋友可以参考... 目录1.登录思路2.登录标记1.会话技术2.会话跟踪1.Cookie技术2.Session技术3.令牌技

python如何生成指定文件大小

《python如何生成指定文件大小》:本文主要介绍python如何生成指定文件大小的实现方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录python生成指定文件大小方法一(速度最快)方法二(中等速度)方法三(生成可读文本文件–较慢)方法四(使用内存映射高效生成

Python验证码识别方式(使用pytesseract库)

《Python验证码识别方式(使用pytesseract库)》:本文主要介绍Python验证码识别方式(使用pytesseract库),具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全... 目录1、安装Tesseract-OCR2、在python中使用3、本地图片识别4、结合playwrigh

Maven项目中集成数据库文档生成工具的操作步骤

《Maven项目中集成数据库文档生成工具的操作步骤》在Maven项目中,可以通过集成数据库文档生成工具来自动生成数据库文档,本文为大家整理了使用screw-maven-plugin(推荐)的完... 目录1. 添加插件配置到 pom.XML2. 配置数据库信息3. 执行生成命令4. 高级配置选项5. 注意事

MybatisX快速生成增删改查的方法示例

《MybatisX快速生成增删改查的方法示例》MybatisX是基于IDEA的MyBatis/MyBatis-Plus开发插件,本文主要介绍了MybatisX快速生成增删改查的方法示例,文中通过示例代... 目录1 安装2 基本功能2.1 XML跳转2.2 代码生成2.2.1 生成.xml中的sql语句头2