Gensim-维基百科中文语料LDA,LSI实验记录

2024-03-14 15:40

本文主要是介绍Gensim-维基百科中文语料LDA,LSI实验记录,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

介绍

本文描述了获取和处理维基百科中文语料过程,以及使用Gensim对语料进行主题建模处理的例子。

准备语料库

  1. 首先,从https://dumps.wikimedia.org/zhwiki/latest/下载所有维基百科文章语料库(需要文件zhwiki-latest-pages-articles.xml.bz2或zhwiki-YYYYMMDD-pages-articles.xml)。这个文件的大小约为1GB多,包含中文维基百科的所有文章(压缩版本)。

  2. 将文章转换为纯文本,并将结果存储为稀疏TF-IDF向量。 在Python中,这是很容易做的,我们甚至不需要将整个存档解压缩到磁盘。 在gensim中包含一个脚本,只需执行以下操作:

python -m gensim.scripts.make_wiki zhwiki-latest-pages-articles.xml.bz2 zhwiki

在bash中运行下面命令可查看make_wiki脚本的用法:

python -m gensim.scripts.make_wiki

然后会生成下面六个文件:
这里写图片描述

Latent Semantic Analysis实验:

实验用到前面生成的二个文件:zhwiki_wordids.txt和zhwiki_tfidf.mm。
TrainLSI()方法训练模型,然后保存。
LSIShow()方法显示结果。

实验代码

def TrainLSI():# load id->word mapping (the dictionary)zhwiki_id2word = corpora.Dictionary.load_from_text("zhwiki_wordids.txt")#  load corpus iterator,即文本库zhwiki_corpus = corpora.MmCorpus("zhwiki_tfidf.mm")zhiwiki_lsi_model = models.lsimodel.LsiModel(corpus=zhwiki_corpus, id2word=zhwiki_id2word, num_topics=400)zhiwiki_lsi_model.save('zhiwiki_lsi_model.model')def LSIShow():zhiwiki_lsi_model = models.lsimodel.LsiModel.load('zhiwiki_lsi_model.model')pp.pprint(zhiwiki_lsi_model.print_topics(5))

结果:显示前五个主题的词分布:

[(0,'0.837*"小行星" + 0.271*"林肯近地小行星研究小组" + 0.271*"索科罗" + 0.234*"基特峰" + ''0.232*"太空监视" + 0.096*"萊蒙山巡天" + 0.096*"莱蒙山" + 0.087*"近地小行星追踪" + 0.081*"帕洛马山" ''+ 0.053*"卡特林那巡天系统"'),(1,'0.796*"zh" + 0.280*"jpg" + 0.270*"hans" + 0.254*"file" + 0.251*"hk" + ''0.166*"tw" + 0.102*"hant" + 0.082*"cn" + 0.072*"px" + 0.038*"image"'),(2,'0.665*"jpg" + 0.601*"file" + -0.359*"zh" + -0.123*"hans" + -0.099*"hk" + ''0.087*"image" + -0.072*"tw" + 0.047*"px" + -0.045*"hant" + 0.042*"公里"'),(3,'0.972*"px" + -0.076*"jpg" + -0.064*"file" + 0.062*"公里" + -0.057*"zh" + ''0.042*"isbn" + 0.037*"平成" + 0.031*"align" + 0.028*"飾演" + 0.027*"民国"'),(4,'0.920*"飾演" + 0.196*"mbc" + 0.194*"kbs" + 0.189*"sbs" + 0.050*"tvn" + ''-0.048*"px" + 0.048*"isbn" + 0.043*"電視劇" + 0.040*"電影" + 0.034*"演出作品"')]Process finished with exit code 0

Latent Dirichlet Allocation实验:

实验用到前面生成的二个文件:zhwiki_wordids.txt和zhwiki_tfidf.mm。
TrainLda()方法训练模型,然后保存。
LdaShow()方法显示结果。

代码:

def TrainLda():zhwiki_id2word = corpora.Dictionary.load_from_text("zhwiki_wordids.txt")zhwiki_corpus = corpora.MmCorpus("zhwiki_tfidf.mm")zhwiki_lda = models.ldamodel.LdaModel(corpus= zhwiki_corpus, id2word= zhwiki_id2word, num_topics=100)zhwiki_lda.save("zhwiki_lda.model")def LdaShow():zhwiki_ldamodel = models.ldamodel.LdaModel.load('zhwiki_lda.model')pp.pprint(zhwiki_ldamodel.print_topics(5))return zhwiki_ldamodel# zhwiki_ldamodel.print_topic(20)

结果:显示前五个主题的词分布:

[(59,'0.096*"每天" + 0.026*"主要演員" + 0.019*"原唱" + 0.012*"level" + 0.011*"夾層" + ''0.011*"note" + 0.009*"total" + 0.009*"smart" + 0.008*"翻譯" + 0.007*"許廷鏗"'),(0,'0.046*"ss" + 0.036*"funet" + 0.025*"hesperioidea" + 0.019*"papiionoidea" + ''0.017*"fruhstorfer" + 0.016*"指名亞種" + 0.014*"tolweb" + 0.013*"nymphalidae" + ''0.012*"分佈於新熱帶界" + 0.011*"ea"'),(99,'0.061*"link" + 0.026*"另见" + 0.023*"制作" + 0.015*"湖南卫视" + 0.015*"巴黎地鐵link" + ''0.015*"巴黎地鐵" + 0.012*"导演" + 0.011*"形式" + 0.011*"規模" + 0.009*"综艺节目"'),(56,'0.172*"jpg" + 0.130*"file" + 0.070*"大字" + 0.037*"image" + 0.026*"区域图" + ''0.017*"svg" + 0.015*"png" + 0.013*"thumb" + 0.010*"公里" + 0.009*"号拍摄"'),(67,'0.041*"正月" + 0.031*"七月" + 0.030*"十一月" + 0.029*"三月" + 0.028*"二月" + ''0.028*"四月" + 0.027*"十月" + 0.026*"五月" + 0.026*"六月" + 0.026*"九月"')]Process finished with exit code 0

使用训练好的LDA模型,对于新来的文档,可以进行主题预测:

代码:

def LDAPredict():lda_model = LdaShow()Dict = corpora.Dictionary.load_from_text("zhwiki_wordids.txt")test_doc = "实验室提供了很多中文语料的下载 全网新闻数据,来自若干新闻站点2012年6月—7月期间国内,国际,体育,社会,娱乐等18个频道的新闻数据,提供URL和正文信息。"test_doc = list(jieba.cut(test_doc))# 文档转换成bowdoc_bow = Dict.doc2bow(test_doc)# 得到新文档的主题分布doc_lda = lda_model[doc_bow]pp.pprint(doc_lda)

结果:第一列表示主题,第二列表示属于改主题的概率。

[(5, 0.089595874435511064),
(20, 0.04391304347826077),
(22, 0.084464754997332497),
(23, 0.043913043478260791),
(30, 0.12636274578275353),
(35, 0.044034901794703332),
(38, 0.043913043478260784),
(53, 0.046039943409513104),
(61, 0.26428438827583728),
(77, 0.043913043478260784),
(85, 0.03423113865080693),
(91, 0.043913043478260784),
(93, 0.053594948305714644)]

问题:
刚开始使用zhwiki_wordids.txt训练的时候,遇到错误。
原因是zhwiki_wordids.txt文件的第一行不是id ->map的格式,删掉之后,解决问题。

参考:http://radimrehurek.com/gensim/wiki.html

这篇关于Gensim-维基百科中文语料LDA,LSI实验记录的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/808881

相关文章

Python UV安装、升级、卸载详细步骤记录

《PythonUV安装、升级、卸载详细步骤记录》:本文主要介绍PythonUV安装、升级、卸载的详细步骤,uv是Astral推出的下一代Python包与项目管理器,主打单一可执行文件、极致性能... 目录安装检查升级设置自动补全卸载UV 命令总结 官方文档详见:https://docs.astral.sh/

统一返回JsonResult踩坑的记录

《统一返回JsonResult踩坑的记录》:本文主要介绍统一返回JsonResult踩坑的记录,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录统一返回jsonResult踩坑定义了一个统一返回类在使用时,JsonResult没有get/set方法时响应总结统一返回

Go学习记录之runtime包深入解析

《Go学习记录之runtime包深入解析》Go语言runtime包管理运行时环境,涵盖goroutine调度、内存分配、垃圾回收、类型信息等核心功能,:本文主要介绍Go学习记录之runtime包的... 目录前言:一、runtime包内容学习1、作用:① Goroutine和并发控制:② 垃圾回收:③ 栈和

java对接海康摄像头的完整步骤记录

《java对接海康摄像头的完整步骤记录》在Java中调用海康威视摄像头通常需要使用海康威视提供的SDK,下面这篇文章主要给大家介绍了关于java对接海康摄像头的完整步骤,文中通过代码介绍的非常详细,需... 目录一、开发环境准备二、实现Java调用设备接口(一)加载动态链接库(二)结构体、接口重定义1.类型

RedisTemplate默认序列化方式显示中文乱码的解决

《RedisTemplate默认序列化方式显示中文乱码的解决》本文主要介绍了SpringDataRedis默认使用JdkSerializationRedisSerializer导致数据乱码,文中通过示... 目录1. 问题原因2. 解决方案3. 配置类示例4. 配置说明5. 使用示例6. 验证存储结果7.

apache的commons-pool2原理与使用实践记录

《apache的commons-pool2原理与使用实践记录》ApacheCommonsPool2是一个高效的对象池化框架,通过复用昂贵资源(如数据库连接、线程、网络连接)优化系统性能,这篇文章主... 目录一、核心原理与组件二、使用步骤详解(以数据库连接池为例)三、高级配置与优化四、典型应用场景五、注意事

SpringBoot实现文件记录日志及日志文件自动归档和压缩

《SpringBoot实现文件记录日志及日志文件自动归档和压缩》Logback是Java日志框架,通过Logger收集日志并经Appender输出至控制台、文件等,SpringBoot配置logbac... 目录1、什么是Logback2、SpringBoot实现文件记录日志,日志文件自动归档和压缩2.1、

qtcreater配置opencv遇到的坑及实践记录

《qtcreater配置opencv遇到的坑及实践记录》我配置opencv不管是按照网上的教程还是deepseek发现都有些问题,下面是我的配置方法以及实践成功的心得,感兴趣的朋友跟随小编一起看看吧... 目录电脑环境下载环境变量配置qmake加入外部库测试配置我配置opencv不管是按照网上的教程还是de

使用nohup和--remove-source-files在后台运行rsync并记录日志方式

《使用nohup和--remove-source-files在后台运行rsync并记录日志方式》:本文主要介绍使用nohup和--remove-source-files在后台运行rsync并记录日... 目录一、什么是 --remove-source-files?二、示例命令三、命令详解1. nohup2.

Java使用SLF4J记录不同级别日志的示例详解

《Java使用SLF4J记录不同级别日志的示例详解》SLF4J是一个简单的日志门面,它允许在运行时选择不同的日志实现,这篇文章主要为大家详细介绍了如何使用SLF4J记录不同级别日志,感兴趣的可以了解下... 目录一、SLF4J简介二、添加依赖三、配置Logback四、记录不同级别的日志五、总结一、SLF4J