MDL最小描述长度在分词研究中的应用

2023-12-01 22:18

本文主要是介绍MDL最小描述长度在分词研究中的应用,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

MDL(minimum description length,最小描述长度) 原理是 Rissane 在研究通用编码时提出的。其基本原理是对于一组给定的实例数据 D , 如果要对其进行保存 ,为了节省存储空间, 一般采用某种模型对其进行编码压缩,然后再保存压缩后的数据。同时, 为了以后正确恢复这些实例数据,将所用的模型也保存起来。所以需要保存的数据长度( 比特数) 等于这些实例数据进行编码压缩后的长度加上保存模型所需的数据长度,将该数据长度称为总描述长度。最小描述长度( MDL) 原理就是要求选择总描述长度最小的模型。

最小描述长度在分词中的应用也比较直接,就是将分词视为一种编码方式,如一个字符串,”iloveyou“ ,总共8个符号,就是对应的8个字母,经过分词后就是“i love you”,就只有3个符号,就是3个单词,这样总长度变小了,但是需要额外的信息来记录单词的信息,也就是模型。因此需要的总的长度不一定变小。

最小描述长度具体应用的分词中的计算方式,见paper “Shlomo Argamon, Navot Akiva, Amihood Amir, and Oren Kapah. Efficient unsupervised word segmentation using minimum description length. In  Coling 2004, 2004.”
其基本公式为:     
CODE(Data| L) + CODE( L)
其中L是词典,Data是语料,ODE函数表示描述数据需要的最小位数
两个部分中,CODE( L)就是描述词典所需的信息,也就是记录模型需要信息:CODE(L) = b*sum(length(w)),其中b表示描述字母集所需要的位数,如2个字母,需要的位数就是1bit,4个就是2bits,依次类推。w表示词典中词的长度 

CODE(Data|L)为分词后的语料,记录这样的语料需要的信息:
CODE(Data|L) = -sum[ C(w) * ( log(C(w))-  log(N) )  ]
其中C(w)为语料中词w的出现的次数,N为语料的包含总的词数。如语料为:Data =  w3 www2 ww3 则语料共有6个词,其中w3的数量为2,w1为1..., 这个里面的log应该是以2为底的

举一个简单的例子,两行已经分好词的语料:
a b
ab a ba

字典部分:
共有两个字符,则b=1,即为用一个bit就可以表示a,b两个字母了
共有4个词,a,b,ab,ba
其长度和为1+1+2+2 = 6
则CODE(L)部分的值为1*6 = 6

分词后的语料部分:
语料长度为5个词,则N=5
其中:
a出现2次,则对应的值为2*( log(2)-log(5) ) = -2.64
b,ab,ba均出现1次,对应的值均为1*( log(1)-log(5) ) =-2.32

则CODE(Data|L) ,也就是语料部分的值为 :
-1*(-2.64 -2.32-2.32-2.32 ) = 9.61

则该词语料的总的描述长度 mdl=6+9.61 = 15.61

这个数组其实是描述这个分词方法和对应语料需要的总的信息量。对其取2为底的对数,则值为log2(15.61)=3.9,也就是编码这个分词后的数据,需要的最小2进制位数是4位。
相应的,我们可以计算一下,不经分词,就是只用字母来表示这个语料,需要的信息量约为8.8966,显然,这样的分词方式是得不偿失的,当然,如果词出现很多,分词后记录语料的信息量会是少的。

对应的python代码如下,其中输入文件为分词好的语料,词直接用空格隔开,一行一个句子

[python]  view plain copy
在CODE上查看代码片 派生到我的代码片
  1. #!/usr/bin/env python  
  2. #coding=utf-8  
  3. import sys   
  4. import math  
  5. reload(sys)  
  6. sys.setdefaultencoding('utf-8')  
  7.   
  8. #MDL,(minimum description length),最小描述长度  
  9. #输入,分好词的文件,格式为 词 空格 词 空格...  
  10. word_dict = {}  
  11.   
  12. #加载语料,统计词和词频,用于后续的处理  
  13. def load_corpus(word_seq_file_name):  
  14.     data_file = open(word_seq_file_name, "r")  
  15.     for line in data_file:  
  16.         line = line.strip()  
  17.         word_list = line.split(" ")  
  18.         for word in word_list:  
  19.             word_dict.setdefault(word,float(0))  
  20.             word_dict[word] += 1  
  21.     return 0  
  22.   
  23. #获得字母的描述长度值  
  24. #目前只处理单字节的字母  
  25. def get_letter_info():  
  26.     letter_dict = {}  
  27.     #统计letter  
  28.     for word in word_dict:  
  29.         for letter in word:  
  30.             letter_dict.setdefault(letter, 0)  
  31.             letter_dict[letter] += 1  
  32.       
  33.     #计算字母的描述长度  
  34.     letter_num = float(len(letter_dict))  
  35.     letter_info = math.log(letter_num, 2)  
  36.   
  37.     return letter_info  
  38.   
  39. #获得词典的词的总长度  
  40. def get_dict_info():  
  41.     word_length_sum = 0  
  42.     for word in word_dict:  
  43.         word_length_sum += len(word)  
  44.   
  45.     return word_length_sum  
  46.   
  47. #获得单词序列的描述长度  
  48. def get_word_seq_info():  
  49.     word_info_sum = 0  
  50.     freq_sum = sum(word_dict.itervalues()) #所有词的词频  
  51.     for word in word_dict:  
  52.         word_freq = word_dict[word]  
  53.         word_info = word_freq * ( math.log(word_freq, 2) - math.log(freq_sum, 2) )  
  54.         word_info_sum += word_info  
  55.       
  56.     word_seq_info = -1*word_info_sum  
  57.     return word_seq_info  
  58.   
  59. #获得最终的mdl  
  60. def get_mdl():  
  61.     letter_info = get_letter_info()  
  62.     dict_info = get_dict_info()  
  63.     word_seq_info = get_word_seq_info()  
  64.     mdl = letter_info*dict_info + word_seq_info  
  65.     return mdl  
  66.   
  67. if __name__=="__main__":  
  68.     if len(sys.argv)!=2:  
  69.         print "please input word corpus filename"  
  70.         sys.exit()  
  71.     load_corpus(sys.argv[1])  
  72.     print get_mdl()  

数据文件例子:

[html]  view plain copy
在CODE上查看代码片 派生到我的代码片
  1. a b  
  2. ab a ba  

处理这个文件,获得的值得应该是
15.61

这篇关于MDL最小描述长度在分词研究中的应用的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/442885

相关文章

利用Python操作Word文档页码的实际应用

《利用Python操作Word文档页码的实际应用》在撰写长篇文档时,经常需要将文档分成多个节,每个节都需要单独的页码,下面:本文主要介绍利用Python操作Word文档页码的相关资料,文中通过代码... 目录需求:文档详情:要求:该程序的功能是:总结需求:一次性处理24个文档的页码。文档详情:1、每个

Java中的分布式系统开发基于 Zookeeper 与 Dubbo 的应用案例解析

《Java中的分布式系统开发基于Zookeeper与Dubbo的应用案例解析》本文将通过实际案例,带你走进基于Zookeeper与Dubbo的分布式系统开发,本文通过实例代码给大家介绍的非常详... 目录Java 中的分布式系统开发基于 Zookeeper 与 Dubbo 的应用案例一、分布式系统中的挑战二

Java 缓存框架 Caffeine 应用场景解析

《Java缓存框架Caffeine应用场景解析》文章介绍Caffeine作为高性能Java本地缓存框架,基于W-TinyLFU算法,支持异步加载、灵活过期策略、内存安全机制及统计监控,重点解析其... 目录一、Caffeine 简介1. 框架概述1.1 Caffeine的核心优势二、Caffeine 基础2

使用Node.js和PostgreSQL构建数据库应用

《使用Node.js和PostgreSQL构建数据库应用》PostgreSQL是一个功能强大的开源关系型数据库,而Node.js是构建高效网络应用的理想平台,结合这两个技术,我们可以创建出色的数据驱动... 目录初始化项目与安装依赖建立数据库连接执行CRUD操作查询数据插入数据更新数据删除数据完整示例与最佳

PHP应用中处理限流和API节流的最佳实践

《PHP应用中处理限流和API节流的最佳实践》限流和API节流对于确保Web应用程序的可靠性、安全性和可扩展性至关重要,本文将详细介绍PHP应用中处理限流和API节流的最佳实践,下面就来和小编一起学习... 目录限流的重要性在 php 中实施限流的最佳实践使用集中式存储进行状态管理(如 Redis)采用滑动

深入浅出Spring中的@Autowired自动注入的工作原理及实践应用

《深入浅出Spring中的@Autowired自动注入的工作原理及实践应用》在Spring框架的学习旅程中,@Autowired无疑是一个高频出现却又让初学者头疼的注解,它看似简单,却蕴含着Sprin... 目录深入浅出Spring中的@Autowired:自动注入的奥秘什么是依赖注入?@Autowired

PostgreSQL简介及实战应用

《PostgreSQL简介及实战应用》PostgreSQL是一种功能强大的开源关系型数据库管理系统,以其稳定性、高性能、扩展性和复杂查询能力在众多项目中得到广泛应用,本文将从基础概念讲起,逐步深入到高... 目录前言1. PostgreSQL基础1.1 PostgreSQL简介1.2 基础语法1.3 数据库

Python中的filter() 函数的工作原理及应用技巧

《Python中的filter()函数的工作原理及应用技巧》Python的filter()函数用于筛选序列元素,返回迭代器,适合函数式编程,相比列表推导式,内存更优,尤其适用于大数据集,结合lamb... 目录前言一、基本概念基本语法二、使用方式1. 使用 lambda 函数2. 使用普通函数3. 使用 N

Python中yield的用法和实际应用示例

《Python中yield的用法和实际应用示例》在Python中,yield关键字主要用于生成器函数(generatorfunctions)中,其目的是使函数能够像迭代器一样工作,即可以被遍历,但不会... 目录python中yield的用法详解一、引言二、yield的基本用法1、yield与生成器2、yi

Python多线程应用中的卡死问题优化方案指南

《Python多线程应用中的卡死问题优化方案指南》在利用Python语言开发某查询软件时,遇到了点击搜索按钮后软件卡死的问题,本文将简单分析一下出现的原因以及对应的优化方案,希望对大家有所帮助... 目录问题描述优化方案1. 网络请求优化2. 多线程架构优化3. 全局异常处理4. 配置管理优化优化效果1.