优化TextRank文本摘要,自定义关键词增加句子的权重

本文主要是介绍优化TextRank文本摘要,自定义关键词增加句子的权重,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

关于textRank的原理,我这边就不多介绍了,搜一下很多,我也不确定自己是否讲的有那些大佬清楚,我们主要关注在优化点

痛点:

最近在做文章的摘要项目,一天的摘要量估计在300万篇左右,所以直接放弃了seq2seq的生成时摘要方法,主要还是使用深度学习,速度和精度都达不到要求了。采用textrank是一种解决办法

1. 目前使用FastTextRank, 速度上基本达到了要求,

github链接:https://github.com/ArtistScript/FastTextRank

2. 但是我们自己的项目中需求点还有一个,就是很相近的文章需要生成不同的摘要。由于我们自己的文章主要是介绍产品的,所以一篇文章中可能每段的侧重点都不一样,可能是不同的产品。

所以需要对FastTextRank 进行改进

 

改进点:

直接来看代码:

from FastTextRank.FastTextRank4Sentence import FastTextRank4Sentence
import timetext = """麻省理工学院的研究团队为无人机在仓库中使用RFID技术进行库存查找等工作,创造了一种聪明的新方式。它允许公司使用更小,更安全的无人机在巨型建筑物中找到之前无法找到的东西。
使用RFID标签更换仓库中的条形码,将帮助提升自动化并提高库存管理的准确性。与条形码不同,RFID标签不需要对准扫描,标签上包含的信息可以更广泛和更容易地更改。它们也可以很便宜,尽管有优点,但是它具有局限性,对于跟踪商品没有设定RFID标准,“标签冲突”可能会阻止读卡器同时从多个标签上拾取信号。扫描RFID标签的方式也会在大型仓库内引起尴尬的问题。固定的RFID阅读器和阅读器天线只能扫描通过设定阈值的标签,手持式读取器需要人员出去手动扫描物品。
几家公司已经解决了无人机读取RFID的技术问题。配有RFID读卡器的无人机可以代替库存盘点的人物,并以更少的麻烦更快地完成工作。一个人需要梯子或电梯进入的高箱,可以通过无人机很容易地达到,无人机可以被编程为独立地导航空间,并且他们比执行大规模的重复任务的准确性和效率要比人类更好。
目前市场上的RFID无人机需要庞大的读卡器才能连接到无人机的本身。这意味着它们必须足够大,以支持附加硬件的尺寸和重量,使其存在坠机风险。麻省理工学院的新解决方案,名为Rfly,允许无人机阅读RFID标签,而不用捆绑巨型读卡器。相反,无人机配备了一个微小的继电器,它像Wi-Fi中继器一样。无人机接收从远程RFID读取器发送的信号,然后转发它读取附近的标签。由于继电器很小,这意味着可以使用更小巧的无人机,可以使用塑料零件,可以适应较窄的空间,不会造成人身伤害的危险。
麻省理工学院的Rfly系统本质上是对现有技术的一个聪明的补充,它不仅消除了额外的RFID读取器,而且由于它是一个更轻的解决方案,允许小型无人机与大型无人机做同样的工作。研究团队正在马萨诸塞州的零售商测试该系统。
"""
key_words = ["无人机"]
mod = FastTextRank4Sentence(use_w2v=False, use_stopword=True,max_iter=100, tol=0.0001,stop_words_file="stopwords.txt")
print("加载完成")
old_time =time.time()
print(mod.summarize(text, 5, key_words))
print(time.time() - old_time)

FastTextRank 直接调用summarize()方法即可进行测试,我这边没有采用word2vec的方式,word2vec需要自己整理语料,前期先不做。

代码中有个变量就是key_words, 输入的是关键词的集合

然后在summarize()中传入

 

FastTextRank4Sentence.py:

def summarize(self,text,n, key_words):text = text.replace('\n', '')text = text.replace('\r', '')text = util.as_text(text)#处理编码问题tokens=util.cut_sentences(text)#sentences用于记录文章最原本的句子,sents用于各种计算操作sentences, sents=util.cut_filter_words(tokens,self.__stop_words,self.__use_stopword)# 改进,如果包含关键词,加大权重weigth_sentences = []for _sentence in sentences:k = 0.5for _key_word in key_words:if _key_word in _sentence:if len(_key_word) < len(sentences):k += len(sentences) // len(key_words)else:k += 1weigth_sentences.append(k)if self.__use_w2v:sents = self.filter_dictword(sents)graph = self.create_graph_sentence(sents,self.__use_w2v)scores = util.weight_map_rank(graph,self.__max_iter,self.__tol, weigth_sentences)sent_selected = nlargest(n, zip(scores, count()))sent_index = []for i in range(n):sent_index.append(sent_selected[i][1])  # 添加入关键词在原来文章中的下标return [sentences[i] for i in sent_index], sent_index

在summarize()方法中,先统计出关键词在句子中是否出现,出现一次初始权重加一次。添加的规则就是, 当句子中出现了一个关键词,权重 +  len(sentences)÷ len(key_words), sentences 表示分好的句子的集合

看图,在weight_map_rank() 中,我们将初始化好的权重传入

 

util.py:

 

def weight_map_rank(weight_graph,max_iter,tol, weigth_sentences):'''输入相似度的图(矩阵)返回各个句子的分数:param weight_graph::return:'''# 初始分数设置为0.5#初始化每个句子的分子和老分数# scores = [0.5 for _ in range(len(weight_graph))]scores= weigth_sentencesold_scores = [0.0 for _ in range(len(weight_graph))]denominator = caculate_degree(weight_graph)# 开始迭代count=0while different(scores, old_scores,tol):for i in range(len(weight_graph)):old_scores[i] = scores[i]#计算每个句子的分数for i in range(len(weight_graph)):scores[i] = calculate_score(weight_graph,denominator, i) + scores[i]count+=1if count>max_iter:breakreturn scores

主要改变有2个地方:

第一个地方在

我们将socres 的初始化使用我们自己的权重

 

第二个地方:

 

计算scores和的时候,将初始化的权重加上

 

OK。完成

思想很简单,改动也很简单,效果有待验证,欢迎大家指正。

这篇关于优化TextRank文本摘要,自定义关键词增加句子的权重的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1120198

相关文章

C#中通过Response.Headers设置自定义参数的代码示例

《C#中通过Response.Headers设置自定义参数的代码示例》:本文主要介绍C#中通过Response.Headers设置自定义响应头的方法,涵盖基础添加、安全校验、生产实践及调试技巧,强... 目录一、基础设置方法1. 直接添加自定义头2. 批量设置模式二、高级配置技巧1. 安全校验机制2. 类型

C++中处理文本数据char与string的终极对比指南

《C++中处理文本数据char与string的终极对比指南》在C++编程中char和string是两种用于处理字符数据的类型,但它们在使用方式和功能上有显著的不同,:本文主要介绍C++中处理文本数... 目录1. 基本定义与本质2. 内存管理3. 操作与功能4. 性能特点5. 使用场景6. 相互转换核心区别

Docker多阶段镜像构建与缓存利用性能优化实践指南

《Docker多阶段镜像构建与缓存利用性能优化实践指南》这篇文章将从原理层面深入解析Docker多阶段构建与缓存机制,结合实际项目示例,说明如何有效利用构建缓存,组织镜像层次,最大化提升构建速度并减少... 目录一、技术背景与应用场景二、核心原理深入分析三、关键 dockerfile 解读3.1 Docke

SpringBoot AspectJ切面配合自定义注解实现权限校验的示例详解

《SpringBootAspectJ切面配合自定义注解实现权限校验的示例详解》本文章介绍了如何通过创建自定义的权限校验注解,配合AspectJ切面拦截注解实现权限校验,本文结合实例代码给大家介绍的非... 目录1. 创建权限校验注解2. 创建ASPectJ切面拦截注解校验权限3. 用法示例A. 参考文章本文

Java实现在Word文档中添加文本水印和图片水印的操作指南

《Java实现在Word文档中添加文本水印和图片水印的操作指南》在当今数字时代,文档的自动化处理与安全防护变得尤为重要,无论是为了保护版权、推广品牌,还是为了在文档中加入特定的标识,为Word文档添加... 目录引言Spire.Doc for Java:高效Word文档处理的利器代码实战:使用Java为Wo

Vite 打包目录结构自定义配置小结

《Vite打包目录结构自定义配置小结》在Vite工程开发中,默认打包后的dist目录资源常集中在asset目录下,不利于资源管理,本文基于Rollup配置原理,本文就来介绍一下通过Vite配置自定义... 目录一、实现原理二、具体配置步骤1. 基础配置文件2. 配置说明(1)js 资源分离(2)非 JS 资

从原理到实战解析Java Stream 的并行流性能优化

《从原理到实战解析JavaStream的并行流性能优化》本文给大家介绍JavaStream的并行流性能优化:从原理到实战的全攻略,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的... 目录一、并行流的核心原理与适用场景二、性能优化的核心策略1. 合理设置并行度:打破默认阈值2. 避免装箱

Python实战之SEO优化自动化工具开发指南

《Python实战之SEO优化自动化工具开发指南》在数字化营销时代,搜索引擎优化(SEO)已成为网站获取流量的重要手段,本文将带您使用Python开发一套完整的SEO自动化工具,需要的可以了解下... 目录前言项目概述技术栈选择核心模块实现1. 关键词研究模块2. 网站技术seo检测模块3. 内容优化分析模

Java实现复杂查询优化的7个技巧小结

《Java实现复杂查询优化的7个技巧小结》在Java项目中,复杂查询是开发者面临的“硬骨头”,本文将通过7个实战技巧,结合代码示例和性能对比,手把手教你如何让复杂查询变得优雅,大家可以根据需求进行选择... 目录一、复杂查询的痛点:为何你的代码“又臭又长”1.1冗余变量与中间状态1.2重复查询与性能陷阱1.

Python内存优化的实战技巧分享

《Python内存优化的实战技巧分享》Python作为一门解释型语言,虽然在开发效率上有着显著优势,但在执行效率方面往往被诟病,然而,通过合理的内存优化策略,我们可以让Python程序的运行速度提升3... 目录前言python内存管理机制引用计数机制垃圾回收机制内存泄漏的常见原因1. 循环引用2. 全局变