跟益达学Solr5之使用Ansj分词器

2023-11-02 01:38

本文主要是介绍跟益达学Solr5之使用Ansj分词器,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

        OK,直接开门见山,不绕弯子啦!基于上篇博客,我们知道了在Solr中配置分词器有两种方式,一种是直接配置分词器类,比如:

<fieldType name="text_ik" class="solr.TextField">      <analyzer class="org.wltea.analyzer.lucene.IKAnalyzer" />      
</fieldType>

 一种是配置TokenizerFactory类,由于Solr API中并没有内置类似IK,Ansj这样的中文分词器的TokenizerFactory类,所以我们需要自己扩展,不过你们不用担心,我已经扩展好了。配置样例如下:

<fieldType name="text_ik" class="solr.TextField"><analyzer type="index"><tokenizer class="org.apache.lucene.analysis.ik.IKTokenizerFactory" useSmart="true"/></analyzer><analyzer type="query"><tokenizer class="org.apache.lucene.analysis.ik.IKTokenizerFactory" useSmart="false"/></analyzer>
</fieldType>

    我扩展的AnsjTokenizerFactory源码如下:

public class AnsjTokenizerFactory  extends TokenizerFactory {/**是否查询分词*/private boolean query;/**是否分析词干.进行单复数,时态的转换(只针对英文单词)*/private boolean pstemming;/**自定义停用词词典文件路径*/private String stopwordsDir;public AnsjTokenizerFactory(Map<String, String> args) {super(args);query = getBoolean(args, "query", false);pstemming = getBoolean(args, "pstemming", false);stopwordsDir = get(args, "stopwordsDir", "");}@Overridepublic Tokenizer create(AttributeFactory factory) {if(query) {return new AnsjTokenizer(factory,new ToAnalysis(new Forest[0]),stopwordsDir,pstemming);}return new AnsjTokenizer(factory,new IndexAnalysis(new Forest[0]),stopwordsDir,pstemming);}
}

   下面介绍如何在Solr中使用Ansj分词器,首先你需要在Solr_home的core\lib目录下添加依赖的jar:

    ansj_seg-2.0.8.jar(戳我试试(*^__^*) 嘻嘻)

    solr-analyzer-ansj-5.1.0.jar(这个jar包体积较小,请在底下的附件里下载)

    nlp-lang-0.2.jar(这是ansj-seg-2.0.8.jar依赖的jar包)

    如图:

 然后在schema.xml中添加如下配置:

 至于query,pstemming,stopwordsDir这3个配置参数的含义,请看我在源码中作的注释,如图:

 query参数:分词的两个阶段:建立索引阶段和查询阶段,即表示是否为查询阶段分词,针对不同的分词阶段采用的分词策略是不一样的。具体看源码,如图:

 pstemming:表示是否对英文单词进行单复数转换以及时态转换,比如apples还原成apple,loved还原成love,broken还原成break,注意pstemming参数仅仅是针对英文,因为只有英文才有单复数和时态形式。

stopwordsDir参数就很好理解了,就是你的自定义停用词词典的存放路径,

上面3个参数是可选的,不是必须配置的。

TokenizerFactory配置好了,然后你就在你的Field中应用此分词器了,如图:

 然后你需要把ansj的library.properties配置文件copy到E:\apache-tomcat-7.0.55\webapps\solr\WEB-INF\classes路径,如图:

 library.properties配置如下:

#redress dic file path
ambiguityLibrary=E:/apache-tomcat-7.0.55/webapps/solr/WEB-INF/classes/library/ambiguity.dic
#path of userLibrary this is default library
userLibrary=E:/apache-tomcat-7.0.55/webapps/solr/WEB-INF/classes/library
#set real name
isRealName=true

 比较恶心的是,anasj分词器的字典文件加载路径这里只能写死成绝对路径,因为它源码里加载字典文件是直接通过new File(dicPath)这种方式来实现的。当你在eclipse中运行,你的dicPath相对路径是你的项目根目录,而如果你的项目部署到tomcat,那dicPath的相对路径就是tomcat根目录下的bin,这确实比较啃爹,所以我这里干脆直接写成绝对路径,当然你可以把字典文件放到任意目录下,比如C:\Library,不是非要放到tomcat下,这个我必须要澄清下。下图是Ansj分词器在加载字典文件时比较恶心的实现方式:

 如果改成这样方式加载字典文件会比较好点,我个人觉得:

   this.getClass().getClassLoader().getResourceAsStream(dicPath);

这样你的字典文件路径dicPath的相对路径才是当前classPath。不过ansj里你把字典文件配置成绝对路径也可以,不一定非要相对路径,这点仁者见仁智者见智吧!骚年,你怎么看?

接着你需要在E:\apache-tomcat-7.0.55\webapps\solr\WEB-INF\classes目录下新建一个library目录,然后把ansj自带的两个字典文件ambiguity.dic和default.dic复制进去,然后新建一个ext.dic文件。相关的字典文件和配置文件我待会儿会上传到附件里供你们参考。其中ext.dic是用户自定义扩展字典文件,如图:

 

 对于类似这种网络新词,ansj分词器默认是分不出来的,这时就需要定义自定义扩展字典。

你应该已经发现了,我们在配置AnsjTokenizerFactory的时候配置了stopwordsDir="stopwords/stopwords.dic"自定义停用词加载路径,这里的stopwordsDir是相对于当前classpath的即E:\apache-tomcat-7.0.55\webapps\solr\WEB-INF\classes,所以我们需要在E:\apache-tomcat-7.0.55\webapps\solr\WEB-INF\classes下新建stopwords文件夹,然后在stopwords文件夹下新建一个stopwords.dic字典文件,stopwords.dic内容如下:

 这里我只加两个词语作为演示,你们可以根据你自己的需求随意添加你自己的停用词。需要解释下的是,之所以
stopwordsDir参数是相对于当前classpath,是因为我在实现AnsjTokenizerFactory时是采用这样的方式来加载词典文件的,如图:

 这一切准备好了,你就开始进行分词测试了,请如图进行测试:

 上图是对自定义新词进行分词测试,么么哒和啪啪啪之所以能被分出来,是因为我们在library\ext.dic自定义词典文件中添加了那两个词语。



 上图是用来测试pstemming参数即英文单词的单复数转换以及时态转换,loved是过去式,自动被转换成原型love

 

上图是用来测试自定义停用词的,如果你看到如图效果,说明你配置成功了!

至于anseg分词器我维护的最新源码我有空会上传到我的github上,请关注我的github

益达的GitHub地址:请猛戳我,用力,吃点劲儿!!!

 

   益达Q-Q:                7-3-6-0-3-1-3-0-5

 

 

   益达的Q-Q群:      1-0-5-0-9-8-8-0-6

 

    

     

 

这篇关于跟益达学Solr5之使用Ansj分词器的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/327202

相关文章

springboot3.x使用@NacosValue无法获取配置信息的解决过程

《springboot3.x使用@NacosValue无法获取配置信息的解决过程》在SpringBoot3.x中升级Nacos依赖后,使用@NacosValue无法动态获取配置,通过引入SpringC... 目录一、python问题描述二、解决方案总结一、问题描述springboot从2android.x

SpringBoot整合AOP及使用案例实战

《SpringBoot整合AOP及使用案例实战》本文详细介绍了SpringAOP中的切入点表达式,重点讲解了execution表达式的语法和用法,通过案例实战,展示了AOP的基本使用、结合自定义注解以... 目录一、 引入依赖二、切入点表达式详解三、案例实战1. AOP基本使用2. AOP结合自定义注解3.

Python中Request的安装以及简单的使用方法图文教程

《Python中Request的安装以及简单的使用方法图文教程》python里的request库经常被用于进行网络爬虫,想要学习网络爬虫的同学必须得安装request这个第三方库,:本文主要介绍P... 目录1.Requests 安装cmd 窗口安装为pycharm安装在pycharm设置中为项目安装req

使用Python将PDF表格自动提取并写入Word文档表格

《使用Python将PDF表格自动提取并写入Word文档表格》在实际办公与数据处理场景中,PDF文件里的表格往往无法直接复制到Word中,本文将介绍如何使用Python从PDF文件中提取表格数据,并将... 目录引言1. 加载 PDF 文件并准备 Word 文档2. 提取 PDF 表格并创建 Word 表格

使用Python实现局域网远程监控电脑屏幕的方法

《使用Python实现局域网远程监控电脑屏幕的方法》文章介绍了两种使用Python在局域网内实现远程监控电脑屏幕的方法,方法一使用mss和socket,方法二使用PyAutoGUI和Flask,每种方... 目录方法一:使用mss和socket实现屏幕共享服务端(被监控端)客户端(监控端)方法二:使用PyA

Python使用Matplotlib和Seaborn绘制常用图表的技巧

《Python使用Matplotlib和Seaborn绘制常用图表的技巧》Python作为数据科学领域的明星语言,拥有强大且丰富的可视化库,其中最著名的莫过于Matplotlib和Seaborn,本篇... 目录1. 引言:数据可视化的力量2. 前置知识与环境准备2.1. 必备知识2.2. 安装所需库2.3

Python数据验证神器Pydantic库的使用和实践中的避坑指南

《Python数据验证神器Pydantic库的使用和实践中的避坑指南》Pydantic是一个用于数据验证和设置的库,可以显著简化API接口开发,文章通过一个实际案例,展示了Pydantic如何在生产环... 目录1️⃣ 崩溃时刻:当你的API接口又双叒崩了!2️⃣ 神兵天降:3行代码解决验证难题3️⃣ 深度

Linux内核定时器使用及说明

《Linux内核定时器使用及说明》文章详细介绍了Linux内核定时器的特性、核心数据结构、时间相关转换函数以及操作API,通过示例展示了如何编写和使用定时器,包括按键消抖的应用... 目录1.linux内核定时器特征2.Linux内核定时器核心数据结构3.Linux内核时间相关转换函数4.Linux内核定时

python中的flask_sqlalchemy的使用及示例详解

《python中的flask_sqlalchemy的使用及示例详解》文章主要介绍了在使用SQLAlchemy创建模型实例时,通过元类动态创建实例的方式,并说明了如何在实例化时执行__init__方法,... 目录@orm.reconstructorSQLAlchemy的回滚关联其他模型数据库基本操作将数据添

Spring配置扩展之JavaConfig的使用小结

《Spring配置扩展之JavaConfig的使用小结》JavaConfig是Spring框架中基于纯Java代码的配置方式,用于替代传统的XML配置,通过注解(如@Bean)定义Spring容器的组... 目录JavaConfig 的概念什么是JavaConfig?为什么使用 JavaConfig?Jav