《自然语言处理》—— jieba库的介绍与使用

2024-08-30 10:44

本文主要是介绍《自然语言处理》—— jieba库的介绍与使用,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

  • 一、jieba库有什么作用
    • 1、基本介绍
    • 2、分词模式
    • 3、常用函数
    • 4、应用场景
    • 5、安装与使用
  • 二、示例代码
    • 1、精确模式分词
    • 2、全模式分词
    • 3、搜索引擎模式分词
    • 4、向jieba词典中添加一个新词
    • 5、自定义词典,添加到jiba词库中

一、jieba库有什么作用

jieba库是一个优秀的Python中文分词第三方库,主要用于将中文文本切分成词语或词汇单位,便于后续的自然语言处理(NLP)和文本分析任务。以下是对jieba库的详细介绍:

1、基本介绍

  • 功能:jieba分词库提供了高效而灵活的中文分词功能,能够处理复杂的中文文本,并将其切分为合理的词汇单元。
  • 特性
    • 支持三种分词模式:精确模式全模式搜索引擎模式,满足不同场景下的需求。
    • 支持自定义词典,用户可以根据需要添加或删除特定的词汇,提高分词的准确性。
    • 提供了关键词提取功能,有助于文本摘要和信息检索等任务。
    • 实现了基于前缀词典和动态规划的分词算法,分词速度快且准确率高。

2、分词模式

  • 精确模式:将文本精确地切分开,不存在冗余单词,适合文本分析任务。例如,jieba.cut(text, cut_all=False)。
  • 全模式:把文本中所有可能的词语都扫描出来,速度非常快,但可能存在冗余数据。例如,jieba.cut(text, cut_all=True)。
  • 搜索引擎模式:在精确模式的基础上,对长词再次进行切分,提高召回率,适合用于搜索引擎分词。例如,jieba.cut_for_search(text)。

3、常用函数

  • jieba.cut:按照指定的分词模式切分文本,返回生成器。
  • jieba.lcut:按照指定的分词模式切分文本,返回列表。
  • jieba.load_userdict:加载用户自定义词典,以确保特定词汇被正确切分。
  • jieba.add_word:手动添加一个新词汇到词典中,临时生效。
  • jieba.del_word:从词典中删除一个词汇。
  • jieba.suggest_freq:调整词出现的频率,以便更好地进行分词。
  • jieba.enable_parallel:启用并行分词,提高分词速度。
  • jieba.sent_tokenize:将文本拆分成句子。
  • jieba.analyse.extract_tags:提取文本中的关键词,返回关键词列表。

4、应用场景

jieba库广泛应用于文本挖掘、搜索引擎、信息检索、文本分类、情感分析等多个领域。通过分词,jieba库能够帮助用户更好地理解和处理中文文本数据,从而提高相关应用的性能和效果。

5、安装与使用

  • jieba库可以通过pip命令轻松安装,安装命令为pip install jieba

    pip install jieba
    
  • 安装完成后,即可在Python代码中通过import jieba来导入并使用jieba库。

    import jieba
    

二、示例代码

1、精确模式分词

  • jieba.cutjieba.lcut 精确分词的区别

    a = jieba.cut("我正在学习自然语言处理", cut_all=False)
    # 因为jieba.cut返回的是生成器,不能直接输出查看结果
    print(a)   # 结果:<generator object Tokenizer.cut at 0x0000016B5944F610>
    # 需要先转换为列表或其他可迭代对象才可以查看,且需要指定分隔符
    print(" / ".join(a))  # 结果:我 / 正在 / 学习 / 自然语言 / 处理a = jieba.lcut("我正在学习自然语言处理", cut_all=False)
    # 可以直接输出查看,返回的是一个列表
    print(a)  # 结果:['我', '正在', '学习', '自然语言', '处理']
    
  • 因此选择 jieba.cut 还是 jieba.lcut 主要取决于你的具体需求:

    • 如果你需要边分词边处理,或者对内存使用有较高要求,推荐使用 jieba.cut
    • 如果你需要立即获取所有分词结果并进行后续处理,或者对内存使用不敏感,那么 jieba.lcut 可能是一个更好的选择。

2、全模式分词

  • 只需要将 cut_all=False 参数,改为 cut_all=True 即可

    a = jieba.cut("我正在学习自然语言处理", cut_all=True)
    print(" / ".join(a))  # 结果:我 / 正在 / 学习 / 自然 / 自然语言 / 语言 / 处理a = jieba.lcut("我正在学习自然语言处理", cut_all=True)
    print(a)  # 结果:['我', '正在', '学习', '自然', '自然语言', '语言', '处理']"""
    全模式:把文本中所有可能的词语都切出来
    这里便是把‘自然语言’所有可能的词语都切出来
    """
    

3、搜索引擎模式分词

  • 搜索引擎模式会进一步细化分词

    import jiebatext = "我爱北京天安门,天安门上太阳升。"
    seg_list = jieba.cut_for_search(text)
    print("/ ".join(seg_list))# 输出结果(实际输出可能有所不同): 搜索引擎模式分词结果:我/ 爱/ 北京/ 天安/ 天安门/ ,/ 天安/ 天安门/ 上/ 太阳/ 太阳升/ 。
    

4、向jieba词典中添加一个新词

  • 向jieba词典中添加一个新词后,在切分句子中有这个新词时便会将他看成一个词,便不会对它再进行更细的切分

    import jiebastr = '我正在学习自然语言处理'
    a = jieba.lcut(sentence=str)
    print(a)  # 结果:['我', '正在', '学习', '自然语言', '处理']str = '我正在学习自然语言处理'
    jieba.add_word('自然语言处理')  # 向词典添加一个新词
    a = jieba.lcut(sentence=str)
    print(a)  # 结果:['我', '正在', '学习', '自然语言处理']
    

5、自定义词典,添加到jiba词库中

  • 意思就是可以自定义一些词,放在文本中,添加到jib词库中,在分词的时候让系统默认这些词就是一个单独的词语,不用再分

  • 其实就是添加多个新词

    import jieba# 假设我们有一个自定义词典文件 自定义词典.txt,内容如下:  
    # 著名的高等学府
    # 优秀的科技公司jieba.load_userdict("自定义词典.txt")  # 加载自定义词典
    text = "清华大学是著名的高等学府,华为公司是一家优秀的科技公司。"
    a = jieba.lcut(sentence=text)
    print(a)
    # 输出结果: ['清华大学', '是', '著名的高等学府', ',', '华为公司', '是', '一家', '优秀的科技公司', '。']
    

这篇关于《自然语言处理》—— jieba库的介绍与使用的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1120600

相关文章

使用Python删除Excel中的行列和单元格示例详解

《使用Python删除Excel中的行列和单元格示例详解》在处理Excel数据时,删除不需要的行、列或单元格是一项常见且必要的操作,本文将使用Python脚本实现对Excel表格的高效自动化处理,感兴... 目录开发环境准备使用 python 删除 Excphpel 表格中的行删除特定行删除空白行删除含指定

SpringBoot结合Docker进行容器化处理指南

《SpringBoot结合Docker进行容器化处理指南》在当今快速发展的软件工程领域,SpringBoot和Docker已经成为现代Java开发者的必备工具,本文将深入讲解如何将一个SpringBo... 目录前言一、为什么选择 Spring Bootjavascript + docker1. 快速部署与

深入理解Go语言中二维切片的使用

《深入理解Go语言中二维切片的使用》本文深入讲解了Go语言中二维切片的概念与应用,用于表示矩阵、表格等二维数据结构,文中通过示例代码介绍的非常详细,需要的朋友们下面随着小编来一起学习学习吧... 目录引言二维切片的基本概念定义创建二维切片二维切片的操作访问元素修改元素遍历二维切片二维切片的动态调整追加行动态

prometheus如何使用pushgateway监控网路丢包

《prometheus如何使用pushgateway监控网路丢包》:本文主要介绍prometheus如何使用pushgateway监控网路丢包问题,具有很好的参考价值,希望对大家有所帮助,如有错误... 目录监控网路丢包脚本数据图表总结监控网路丢包脚本[root@gtcq-gt-monitor-prome

Python通用唯一标识符模块uuid使用案例详解

《Python通用唯一标识符模块uuid使用案例详解》Pythonuuid模块用于生成128位全局唯一标识符,支持UUID1-5版本,适用于分布式系统、数据库主键等场景,需注意隐私、碰撞概率及存储优... 目录简介核心功能1. UUID版本2. UUID属性3. 命名空间使用场景1. 生成唯一标识符2. 数

SpringBoot中如何使用Assert进行断言校验

《SpringBoot中如何使用Assert进行断言校验》Java提供了内置的assert机制,而Spring框架也提供了更强大的Assert工具类来帮助开发者进行参数校验和状态检查,下... 目录前言一、Java 原生assert简介1.1 使用方式1.2 示例代码1.3 优缺点分析二、Spring Fr

zookeeper端口说明及介绍

《zookeeper端口说明及介绍》:本文主要介绍zookeeper端口说明,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录一、zookeeper有三个端口(可以修改)aVNMqvZ二、3个端口的作用三、部署时注意总China编程结一、zookeeper有三个端口(可以

Android kotlin中 Channel 和 Flow 的区别和选择使用场景分析

《Androidkotlin中Channel和Flow的区别和选择使用场景分析》Kotlin协程中,Flow是冷数据流,按需触发,适合响应式数据处理;Channel是热数据流,持续发送,支持... 目录一、基本概念界定FlowChannel二、核心特性对比数据生产触发条件生产与消费的关系背压处理机制生命周期

java使用protobuf-maven-plugin的插件编译proto文件详解

《java使用protobuf-maven-plugin的插件编译proto文件详解》:本文主要介绍java使用protobuf-maven-plugin的插件编译proto文件,具有很好的参考价... 目录protobuf文件作为数据传输和存储的协议主要介绍在Java使用maven编译proto文件的插件

SpringBoot线程池配置使用示例详解

《SpringBoot线程池配置使用示例详解》SpringBoot集成@Async注解,支持线程池参数配置(核心数、队列容量、拒绝策略等)及生命周期管理,结合监控与任务装饰器,提升异步处理效率与系统... 目录一、核心特性二、添加依赖三、参数详解四、配置线程池五、应用实践代码说明拒绝策略(Rejected