亦菲喊你来学机器学习(18) --TF-IDF方法

2024-09-01 21:52
文章标签 学习 方法 机器 18 tf idf 来学

本文主要是介绍亦菲喊你来学机器学习(18) --TF-IDF方法,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

  • TF-IDF
    • 词频TF
    • 逆文档频率IDF
    • 计算TF-IDF值
  • 应用
  • 实验使用TF-IDF
    • 1. 收集数据
    • 2. 数据预处理
    • 3. 构建TF-IDF模型对象
    • 4. 转化稀疏矩阵
    • 5. 排序取值
    • 完整代码展示
  • jieba分词
  • 总结

TF-IDF

TF-IDF(Term Frequency-Inverse Document Frequency,词频-逆文档频率)是一种用于信息检索与文本挖掘的常用加权技术。TF-IDF是一种统计方法,用以评估一个字词对于一个文件集或一个语料库中的其中一份文件的重要程度。字词的重要性随着它在文件中出现的次数成正比增加,但同时会随着它在语料库中出现的频率成反比下降。

比如我们常用的百度软件,是如何做到输入搜索词就可以在数不清的文档中取出我们需要的呢?就是因为,他对每一篇文章都计算了文章内容单词的TF-IDF值,找出哪些词对文章是重要的,可以作为搜索词,定位到文章。

词频TF

TF(Term Frequency,词频),词频是指某个词在文档中出现的次数。对于某一特定文件里的词语t来说,它的重要性可以简单地通过它在该文件中出现的次数来衡量。但是,这种简单的统计方法有两个问题:

  1. 它没有考虑到文件长度。较长的文件可能会包含更多的词,因此单纯的词频统计会使得长文件中的词看起来更重要。
  2. 它没有考虑到词的重要性与它在语料库中出现的频率成反比这一事实。一些常用的词(如“的”,“是”,“在”等)可能在很多文档中频繁出现,但它们对文档的主题可能没有太大贡献。

在这里插入图片描述

逆文档频率IDF

IDF(Inverse Document Frequency,逆文档频率),逆文档频率是一个词语普遍重要性的度量。某一特定词语的IDF,可以由总文件数目除以包含该词语之文件的数目,再将得到的商取对数得到。如果包含词条t的文档越少,IDF越大,则说明词条具有很好的类别区分能力。

在这里插入图片描述

计算TF-IDF值

在这里插入图片描述

应用

TF-IDF在文本挖掘和信息检索领域有着广泛的应用。例如,在搜索引擎中,搜索引擎可以根据用户输入的查询词,计算每个网页中这些查询词的TF-IDF值,然后根据这些值对网页进行排序,将最相关的网页排在前面。此外,TF-IDF还可以用于文本分类、文本聚类、关键词提取等任务中。

实验使用TF-IDF

目标:计算给予数据中,每篇文章名字中适合搜索的单词。

1. 收集数据

链接: 实验数据
提取码: 9unj

2. 数据预处理

读取文本内容:

inFile = open('task2_1.txt','r')
corpus = inFile.readlines()     #读取所有行数据,存在列表中

3. 构建TF-IDF模型对象

from sklearn.feature_extraction.text import TfidfVectorizervectorizer = TfidfVectorizer()  #构建TF-IDF模型对象
tfidf = vectorizer.fit_transform(corpus)    #fit_transform()拟合并调整数据的分布或范围
print(tfidf)
----------------(0, 1)	0.4489258246711445(0, 3)	0.620513986496383(0, 10)	0.3876833588747892(0, 5)	0.3876833588747892………………		…………

注意:拟合完之后会有一串数据(tfidf),其中列如"(0, 1) 0.4489258246711445"表示,在第1篇中,第2个词的TF-IDF值。但是!!值得注意的是,这里的第2个词并不是指在那篇文章中的第2个单词,而是在文本中所有单词中的第2个。那么,我们怎么知道文本中有多少词呢?

我们看看下一行get_feature_names_out()方法:

# get_feature_names_out()方法:获取特征名称,所有的单词
# 上述所说的第几个词,表示在这里面的索引获取的值
wordlist = vectorizer.get_feature_names_out()
print(wordlist)
--------------------
['and' 'document' 'final' 'first' 'has' 'is' 'line' 'one' 'second''several' 'the' 'third' 'this' 'words']

4. 转化稀疏矩阵

由于获得的tfidf数据观察起来有些困难,所以将其转化为稀疏矩阵(以wordlist为索引):

df = pd.DataFrame(tfidf.T.todense(),index=wordlist)

在这里插入图片描述

得到每篇文章,对应每个单词的TF-IDF值,没有该单词的为0。

5. 排序取值

步骤:获取矩阵中的每一列 —> 将每一篇的对所有单词的TF-IDF值给取出存入字典中 —> sorted方法排序(以TF-IDF值为基准)

for i in range(0,6):# 获取矩阵中的每一列featyrelist = df.iloc[:,i].to_list()# 将每一篇的对所有单词的TF-IDF值给取出存入字典中resdict = {}for j in range(0,len(wordlist)):resdict[wordlist[j]] = featyrelist[j]   #给字典创建键值对内容# resdict.items()获取字典中键值对所有内容,返回的是元组# key:以key为基准排序,lambda x: x[1]表示取返回元组中的第二个值,即TF-IDF值# reverse:排序方式,True表示降序resdict = sorted(resdict.items(),key=lambda x: x[1],reverse=True)print(resdict)

输出显示:

[('first', 0.620513986496383), ('document', 0.4489258246711445), ('is', 0.3876833588747892), ('the', 0.3876833588747892), ('this', 0.3359035918367382), ('and', 0.0), ('final', 0.0), ('has', 0.0), ('line', 0.0), ('one', 0.0), ('second', 0.0), ('several', 0.0), ('third', 0.0), ('words', 0.0)]
[('document', 0.670678043970947), ('second', 0.5652488019730092), ('is', 0.28959206902465257), ('the', 0.28959206902465257), ('this', 0.25091357141339277), ('and', 0.0), ('final', 0.0), ('first', 0.0), ('has', 0.0), ('line', 0.0), ('one', 0.0), ('several', 0.0), ('third', 0.0), ('words', 0.0)]
[('and', 0.5183362513321061), ('one', 0.5183362513321061), ('third', 0.5183362513321061), ('is', 0.2655575154689396), ('the', 0.2655575154689396), ('this', 0.23008912103979834), ('document', 0.0), ('final', 0.0), ('first', 0.0), ('has', 0.0), ('line', 0.0), ('second', 0.0), ('several', 0.0), ('words', 0.0)]
………………多余不展示

这样我们就知道了每篇文章对应每个单词的权重大小。

完整代码展示

from sklearn.feature_extraction.text import TfidfVectorizer
import pandas as pdinFile = open('task2_1.txt','r')
corpus = inFile.readlines()     #读取所有行数据,存在列表中vectorizer = TfidfVectorizer()  #构建TF-IDF模型对象
tfidf = vectorizer.fit_transform(corpus)    #fit_transform()拟合并调整数据的分布或范围
# 拟合完之后会有一串数据,表示,在第几篇中,第几个词的TF-IDF值
# 但是!!值得注意的是,这里的第几个词并不是指在那篇文章中的第几个,而是在文本中所有单词中的第几个
# 那么,我们怎么知道文本中有多少词呢?我们看看下一行get_feature_names_out()方法
print(tfidf)# get_feature_names_out()方法:获取特征名称,所有的单词
# 上述所说的第几个词,表示在这里面的索引获取的值
wordlist = vectorizer.get_feature_names_out()
print(wordlist)# 由于获得的tfidf数据观察起来有些困难,所以将其转化为稀疏矩阵(以wordlist为索引)
df = pd.DataFrame(tfidf.T.todense(),index=wordlist)
# print(df)words = []
for i in range(0,6):# 获取矩阵中的每一列featyrelist = df.iloc[:,i].to_list()# 将每一篇的对所有单词的TF-IDF值给取出存入字典中resdict = {}for j in range(0,len(wordlist)):resdict[wordlist[j]] = featyrelist[j]   #给字典创建键值对内容# resdict.items()获取字典中键值对所有内容,返回的是元组# key:以key为基准排序,lambda x: x[1]表示取返回元组中的第二个值,即TF-IDF值# reverse:排序方式,True表示降序resdict = sorted(resdict.items(),key=lambda x: x[1],reverse=True)words.append(resdict[0][0])	#获取TF-IDF值最高的单词print(resdict)
print('每篇文章对应的搜索单词为:',words)

jieba分词

但是,注意咯,我们实验使用的数据是英文的,它本身每个单词之间就已经被空格分开了。那假如我们要处理中文文章呢?所有单词都在一句话中连在一起,我们怎么得到每个单词呢?更别提得到每个单词的TF-IDF值了。

所以在这里,我们需要实验jieba库方法,对中文进行分词,库本身包含了中文大部分词海,他会判断哪些字比较适合合在一起作为一个单词,进行划分,从而起到分词作用。该方法我们下期介绍并尝试实验使用它!

总结

本篇介绍了:

  1. 什么是TF-IDF值?它有什么作用?
  2. 如何计算TF-IDF值
  3. 使用TF-IDF对象得到文章单词权重
  4. 下期介绍,使用jieba库进行中文分词

这篇关于亦菲喊你来学机器学习(18) --TF-IDF方法的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!


原文地址:
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.chinasem.cn/article/1128143

相关文章

Maven 配置中的 <mirror>绕过 HTTP 阻断机制的方法

《Maven配置中的<mirror>绕过HTTP阻断机制的方法》:本文主要介绍Maven配置中的<mirror>绕过HTTP阻断机制的方法,本文给大家分享问题原因及解决方案,感兴趣的朋友一... 目录一、问题场景:升级 Maven 后构建失败二、解决方案:通过 <mirror> 配置覆盖默认行为1. 配置示

SpringBoot排查和解决JSON解析错误(400 Bad Request)的方法

《SpringBoot排查和解决JSON解析错误(400BadRequest)的方法》在开发SpringBootRESTfulAPI时,客户端与服务端的数据交互通常使用JSON格式,然而,JSON... 目录问题背景1. 问题描述2. 错误分析解决方案1. 手动重新输入jsON2. 使用工具清理JSON3.

使用jenv工具管理多个JDK版本的方法步骤

《使用jenv工具管理多个JDK版本的方法步骤》jenv是一个开源的Java环境管理工具,旨在帮助开发者在同一台机器上轻松管理和切换多个Java版本,:本文主要介绍使用jenv工具管理多个JD... 目录一、jenv到底是干啥的?二、jenv的核心功能(一)管理多个Java版本(二)支持插件扩展(三)环境隔

Java中Map.Entry()含义及方法使用代码

《Java中Map.Entry()含义及方法使用代码》:本文主要介绍Java中Map.Entry()含义及方法使用的相关资料,Map.Entry是Java中Map的静态内部接口,用于表示键值对,其... 目录前言 Map.Entry作用核心方法常见使用场景1. 遍历 Map 的所有键值对2. 直接修改 Ma

Mybatis Plus Join使用方法示例详解

《MybatisPlusJoin使用方法示例详解》:本文主要介绍MybatisPlusJoin使用方法示例详解,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,... 目录1、pom文件2、yaml配置文件3、分页插件4、示例代码:5、测试代码6、和PageHelper结合6

Java中实现线程的创建和启动的方法

《Java中实现线程的创建和启动的方法》在Java中,实现线程的创建和启动是两个不同但紧密相关的概念,理解为什么要启动线程(调用start()方法)而非直接调用run()方法,是掌握多线程编程的关键,... 目录1. 线程的生命周期2. start() vs run() 的本质区别3. 为什么必须通过 st

Go学习记录之runtime包深入解析

《Go学习记录之runtime包深入解析》Go语言runtime包管理运行时环境,涵盖goroutine调度、内存分配、垃圾回收、类型信息等核心功能,:本文主要介绍Go学习记录之runtime包的... 目录前言:一、runtime包内容学习1、作用:① Goroutine和并发控制:② 垃圾回收:③ 栈和

C#之List集合去重复对象的实现方法

《C#之List集合去重复对象的实现方法》:本文主要介绍C#之List集合去重复对象的实现方法,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录C# List集合去重复对象方法1、测试数据2、测试数据3、知识点补充总结C# List集合去重复对象方法1、测试数据

SpringBoot读取ZooKeeper(ZK)属性的方法实现

《SpringBoot读取ZooKeeper(ZK)属性的方法实现》本文主要介绍了SpringBoot读取ZooKeeper(ZK)属性的方法实现,强调使用@ConfigurationProperti... 目录1. 在配置文件中定义 ZK 属性application.propertiesapplicati

MyBatis设计SQL返回布尔值(Boolean)的常见方法

《MyBatis设计SQL返回布尔值(Boolean)的常见方法》这篇文章主要为大家详细介绍了MyBatis设计SQL返回布尔值(Boolean)的几种常见方法,文中的示例代码讲解详细,感兴趣的小伙伴... 目录方案一:使用COUNT查询存在性(推荐)方案二:条件表达式直接返回布尔方案三:存在性检查(EXI