python中文词频统计并利用词云图进行数据可视化

2024-03-11 23:10

本文主要是介绍python中文词频统计并利用词云图进行数据可视化,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

  • 一、前言
    • 简介
  • 二、项目简介
  • 三、实战项目
    • 实战1:中文词频统计并利用词云图进行数据可视化
      • 第一步:安装库
      • 第二步: 分析题目意思
      • 第三步:Jieba是什么
      • 第四步:Jieba常用的方法
      • 第五步: Wordcloud常用的方法
    • 代码详解
    • 结果

一、前言

简介

💻祝各位六一儿童节快乐,最近真的太忙了,转眼间大三就来到第二个学期,还有一学年就要毕业了;马上也要开始准备 毕业设计 。 但是很多地方还需要进阶学习。然后这段时间也学习了很多的东西,让我也是收获颇满;但同时也 认识到了自己的不足,下面我将介绍一下做的一些内容。

二、项目简介

Python数据处理、分析与应用的实现过程,以及专业技术人员所使用的基本方法和技巧,

培养自己解决Python数据处理、分析与应用过程中遇到实际问题的能力,

掌握应用Python编写程序的技术,提高学生在Python数据处理、分析与应用方面的综合应用能力。

基本的知识目前就不哆嗦了,直接实战。

三、实战项目

实战1:中文词频统计并利用词云图进行数据可视化

(1)认识jieba库和wordcloud库;

(2)利用jieba库进行中文词频统计,强调字典、列表的应用;

(3)结合词频统计结果利用wordcloud库进行词云图的可视化;

(4)程序代码存为“学号姓名a.py”,词频统计结果存为“学号姓名a.csv”,词云图存为“学号姓名a.png”;

(5)每个步骤需要运行结果截图,截图中需要加上水印,水印为自己的学号姓名。

第一步:安装库

    pip install 库名

第二步: 分析题目意思

题目需要利用jieba库和wordcloud库

首先认识一下这两个库

第三步:Jieba是什么

jieba(“结巴”)是Python中一个重要的第三方中文分词函数库,能够将一段中文文本分割成中文词语的序列。

jieba库的分词原理是利用一个中文词库,将待分词的内容与分词词库进行比对,通过图结构和动态规划方法找到最大概率的词组。 除了分词jieba还提供增加自定义中文单词的功能。

第四步:Jieba常用的方法

精确模式,将句子最精确地切开,适合文本分析;返回结果是列表类型

    import jieba  #导入库a="爱上对方过后就哭了."ls = jieba.lcut(a)print(ls)

在这里插入图片描述

全模式,把句子中所有可以成词的词语都扫描出来,速度非常快,但是不能解决歧义;将字符串的所有分词可能均列出来,返回结果是列表类型,冗余性最大

    import jiebaa="爱上对方过后就哭了."ls = jieba.lcut(a,cut_all=True)print(ls)

在这里插入图片描述

搜索引擎模式,在精确模式基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词。

    import jiebaa="爱上对方过后就哭了."ls = jieba.lcut_for_search(a)print(ls)

在这里插入图片描述

jieba.add_word()函数,用来向jieba词库增加新的单词。

    import jiebaa="爱上对方过后就哭了."jieba.add_word("过后就哭了.")ls = jieba.lcut(a)print(ls)

在这里插入图片描述

第五步: Wordcloud常用的方法

在生成词云时,wordcloud默认会以空格或标点为分隔符对目标文本进行分词处理
根据文本中词语出现的频率等参数绘制词云 绘制词云的形状,尺寸和颜色都可以设定

过多的基础知识我这就不多余的讲解,不懂得请看以前的文章,嘿嘿😊

代码详解

    import matplotlib.pyplot as pltfrom PIL import Imageimport wordcloud as wcimport jiebaimport csvimport numpy as np#排除不合法字符excludes = open("stoplist.txt", 'r+', encoding='utf-8').read()b = []i = 0while i < len(excludes) - 1:if excludes[i] not in {',', '、', '.', ' ', '\n', '\\'}:b.append(excludes[i:i + 2])i += 2else:i += 1# 打开文件counts = {}with open('Praxis.txt', mode='r', encoding='utf-8') as fp:content = fp.read()words = jieba.lcut(content)  # 精确模式,返回一个列表类型的分词结果text = " ".join(words) #文本必须以空格的方式存入# 统计词语的次数for word in words:if len(word) == 1:continueelse:rword = wordcounts[rword] = counts.get(rword, 0) + 1for word in b:print(f'word{word}')if word in counts:del counts[word]print(f'counts{counts}')items = list(counts.items())print(f'item{items}')mask = np.array(Image.open('love.png'))word_cloud = wc.WordCloud(font_path=r'C:\Windows\Fonts\simkai.ttf',background_color="#e6ebf1",mask=mask,  # 背景图片max_words=2000,  # 设置最大显示的词数max_font_size=100,  # 设置字体最大值width=500,  # 设置画布的宽度height=500,  # 设置画布的高度)  # 创建文本对象word_cloud.generate(text)  # 加载文本fn = '888888小猿.csv'with open(fn, 'w', encoding='gbk', newline='') as csvfile:  # 打开文件csvWiter = csv.writer(csvfile)  # 建立Writer对象for key in counts:csvWiter.writerow([key, counts[key]])print("数据加载完毕")plt.imshow(word_cloud)word_cloud.to_file('888888小猿.jpg')  # 保存为图片plt.show()

在这里插入图片描述

结果

如果对你有帮助,请下方投币,创作不容易,请多多支持小猿✅
这里有更多更详细得技术讲解

这篇关于python中文词频统计并利用词云图进行数据可视化的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/799374

相关文章

python panda库从基础到高级操作分析

《pythonpanda库从基础到高级操作分析》本文介绍了Pandas库的核心功能,包括处理结构化数据的Series和DataFrame数据结构,数据读取、清洗、分组聚合、合并、时间序列分析及大数据... 目录1. Pandas 概述2. 基本操作:数据读取与查看3. 索引操作:精准定位数据4. Group

Python pandas库自学超详细教程

《Pythonpandas库自学超详细教程》文章介绍了Pandas库的基本功能、安装方法及核心操作,涵盖数据导入(CSV/Excel等)、数据结构(Series、DataFrame)、数据清洗、转换... 目录一、什么是Pandas库(1)、Pandas 应用(2)、Pandas 功能(3)、数据结构二、安

Python使用Tenacity一行代码实现自动重试详解

《Python使用Tenacity一行代码实现自动重试详解》tenacity是一个专为Python设计的通用重试库,它的核心理念就是用简单、清晰的方式,为任何可能失败的操作添加重试能力,下面我们就来看... 目录一切始于一个简单的 API 调用Tenacity 入门:一行代码实现优雅重试精细控制:让重试按我

Python安装Pandas库的两种方法

《Python安装Pandas库的两种方法》本文介绍了三种安装PythonPandas库的方法,通过cmd命令行安装并解决版本冲突,手动下载whl文件安装,更换国内镜像源加速下载,最后建议用pipli... 目录方法一:cmd命令行执行pip install pandas方法二:找到pandas下载库,然后

SpringBoot多环境配置数据读取方式

《SpringBoot多环境配置数据读取方式》SpringBoot通过环境隔离机制,支持properties/yaml/yml多格式配置,结合@Value、Environment和@Configura... 目录一、多环境配置的核心思路二、3种配置文件格式详解2.1 properties格式(传统格式)1.

Python实现网格交易策略的过程

《Python实现网格交易策略的过程》本文讲解Python网格交易策略,利用ccxt获取加密货币数据及backtrader回测,通过设定网格节点,低买高卖获利,适合震荡行情,下面跟我一起看看我们的第一... 网格交易是一种经典的量化交易策略,其核心思想是在价格上下预设多个“网格”,当价格触发特定网格时执行买

Python标准库之数据压缩和存档的应用详解

《Python标准库之数据压缩和存档的应用详解》在数据处理与存储领域,压缩和存档是提升效率的关键技术,Python标准库提供了一套完整的工具链,下面小编就来和大家简单介绍一下吧... 目录一、核心模块架构与设计哲学二、关键模块深度解析1.tarfile:专业级归档工具2.zipfile:跨平台归档首选3.

使用Python构建智能BAT文件生成器的完美解决方案

《使用Python构建智能BAT文件生成器的完美解决方案》这篇文章主要为大家详细介绍了如何使用wxPython构建一个智能的BAT文件生成器,它不仅能够为Python脚本生成启动脚本,还提供了完整的文... 目录引言运行效果图项目背景与需求分析核心需求技术选型核心功能实现1. 数据库设计2. 界面布局设计3

SQL Server跟踪自动统计信息更新实战指南

《SQLServer跟踪自动统计信息更新实战指南》本文详解SQLServer自动统计信息更新的跟踪方法,推荐使用扩展事件实时捕获更新操作及详细信息,同时结合系统视图快速检查统计信息状态,重点强调修... 目录SQL Server 如何跟踪自动统计信息更新:深入解析与实战指南 核心跟踪方法1️⃣ 利用系统目录

解决pandas无法读取csv文件数据的问题

《解决pandas无法读取csv文件数据的问题》本文讲述作者用Pandas读取CSV文件时因参数设置不当导致数据错位,通过调整delimiter和on_bad_lines参数最终解决问题,并强调正确参... 目录一、前言二、问题复现1. 问题2. 通过 on_bad_lines=‘warn’ 跳过异常数据3