国人为什么不再唯金牌论?——我用Python分析东京奥运会

2023-10-29 06:59

本文主要是介绍国人为什么不再唯金牌论?——我用Python分析东京奥运会,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

写在前面的话

欢迎扫码关注我的公众号,与我一同进步!主要致力于学习

  1. 使用深度学习解决计算机视觉相关问题
  2. Python为主的互联网应用服务
  3. 基于MIPS指令集的CPU微体系结构设计
    在这里插入图片描述

引言

    今年的夏季奥运会于我们大多数国人来说,都是继北京奥运会之后非常有参与感的一届奥运会。我认为,主要有如下几个原因:

  1. 2020年夏季奥运会举办城市在日本东京,而东京时间与北京时间的时差只有一个小时。我们不用黑白颠倒就可以赶上所有的赛事直播。
  2. 国内的部分城市相继出现了部分新冠肺炎确诊病例,大部分人的暑期计划由“出游”转变为“家里蹲”。
  3. 今年的中国代表团出现了大量的90后、00后军团,他们代表了中国青年一代,在奥运会上的亮眼表现得到了社会的广泛关注。
  4. … …

在这里插入图片描述
于我来说,今年也利用各种各样的空闲时间,通过或直播、或回放的方式,观看了中国代表团的部分赛事。闲暇之余,也参与了微博上相关话题的讨论。其中,一个话题名为"#国人为何不再唯金牌论#"引起了我的极大兴趣。虽然我浏览了相关话题的评论,但仍觉得不过瘾。便萌想到可以获取到评论的数据,再利用Python进行分析。

获取数据

要想对数据进行分析,首先要获取数据。这一步,我们通过对网络请求进行分析获取。

首先,进入到微博手机版的界面(PC端界面无法获取到数据)。

链接地址:https://m.weibo.cn/

进入后的界面如图所示。

在这里插入图片描述
我们在搜索框中输入“#国人为何不再唯金牌论了#”,就可以看到如下图所示的界面。我们选择置顶的第一条微博,并点击进去。

在这里插入图片描述
同时,按"F12"或者鼠标右击页面,选择"检查"。我们选择新出现的功能栏中的“Network”,并选择"XHR",就可以看到该页面加载过程中的网络请求了。

在这里插入图片描述
观察得到的网络请求中,我们会发现有一条以“hotflow”为开头的网络请求。点击进入到该请求中,查看响应的信息,发现为我们所需要的评论信息。

在这里插入图片描述
据此可得出结论,该目标网址就是我们需要的评论信息的网址。它将数据封装成json格式返回。因此,只要我们可以获取到该网址的返回值,就可以获取评论信息。

但是,新的问题又出现了:这只有20条评论信息,可是原微博有5000+评论信息。其他信息去哪了?在进行分析之后可以发现,评论信息是动态加载的,当我们不断向下拖动信息时,就可以获得所有的评论信息啦~

解决了所有问题之后,我们只剩下最后一步,将得到的信息进行处理,把我们需要的评论内容进行处理之后保存到文本文件中。我们使用如下的Python程序实现。

def get_data(review_file_path):"""在文件中读取数据,并对数据进行处理:param review_file_path: 评论文件的存储路径,string:return: 评论信息"""review_contents = []with open(review_file_path, 'r') as f:lines = f.readlines()f.close()n = len(lines)for i in range(n):line = json.loads(lines[i])review_datas = line['data']['data']data_nums = len(review_datas)# 设置开始读取评论的位置if i == 0:start = 1else:start = 0for j in range(start, data_nums):# 正则匹配处理文本其他信息pattern_01 = re.compile(r'<span class="url-icon">.*?</span>', re.S)pattern_02 = re.compile(r'<a .*?>.*?</a>', re.S)origin_review_content = review_datas[j]['text']review_content = re.sub(pattern_01, '', origin_review_content)review_content = re.sub(pattern_02, '', review_content)review_contents.append(review_content)return review_contents

最终获取的数据信息和评论信息(经过处理之后的数据信息)可通过如下链接下载。

数据信息
链接:https://pan.baidu.com/s/1EYC1kUf1p9XYQ_fOt_kp1w
提取码:dcn2

注:本文仅获取了1000条评论数据。

分析数据

对经过处理后的评论信息,使用Python的第三方库进行分词并将结果绘制为词云,它通过调用库函数即可,这里不再赘述。使用如下的Python程序实现。

def draw_picture(review_content_file_path):data = open(review_content_file_path, 'r', encoding='utf-8').read()# 分词word_list = jieba.cut(data, cut_all=True)word_list_result = ' '.join(word_list)# 词云的配置word_cloud = WordCloud(# 设置背景background_color='white',# 设置显示的最大的词云数量max_words=50,# 设置词的跨度font_step=10,# 设置字体font_path=r'C:\Windows\Fonts\simsun.ttc',# 设置词云的高度和宽度height=300,width=300,# 设置配色方案random_state=30)# 得到结果my_cloud = word_cloud.generate(word_list_result)plt.imshow(my_cloud)plt.axis("off")plt.show()

最终的绘制结果如图所示。
在这里插入图片描述

尾声

     从图中不难看出,一些亮眼的字眼,如:“自信”、“强大”、“证明”、“努力”、“国人”。他们给出了这个问题最好的回答:我们的国家强大了,我们的民族正在复兴,我们比以往任何时刻都更加坚定道路自信、理论自信、文化自信,我们不再需要用金牌证明自己。而这也是这届奥运会令我最震撼、最骄傲、最受益的地方!

在这里插入图片描述

完整代码

文章的最后奉上实现该分析的完整程序。

#!/usr/bin/env python
# -*- coding:utf-8 -*-"""
@ModuleName: get_data
@Function: 
@Author: PengKai
@Time: 2021/8/6 22:52
"""import re
import json
import jieba
import matplotlib.pyplot as plt
from wordcloud import WordClouddef get_data(review_file_path):"""在文件中读取数据,并对数据进行处理:param review_file_path: 评论文件的存储路径,string:return: 评论信息"""review_contents = []with open(review_file_path, 'r') as f:lines = f.readlines()f.close()n = len(lines)for i in range(n):line = json.loads(lines[i])review_datas = line['data']['data']data_nums = len(review_datas)# 设置开始读取评论的位置if i == 0:start = 1else:start = 0for j in range(start, data_nums):pattern_01 = re.compile(r'<span class="url-icon">.*?</span>', re.S)pattern_02 = re.compile(r'<a .*?>.*?</a>', re.S)origin_review_content = review_datas[j]['text']review_content = re.sub(pattern_01, '', origin_review_content)review_content = re.sub(pattern_02, '', review_content)review_contents.append(review_content)return review_contentsdef store_contents(review_contents):"""将得到的评论信息保存在文件中:param review_contents: 评论信息,List:return: None"""n = len(review_contents)with open('./review_data.txt', 'w', encoding='utf-8') as f:for i in range(n):text = review_contents[i] + '\n'f.write(text)f.close()def draw_picture(review_content_file_path):data = open(review_content_file_path, 'r', encoding='utf-8').read()# 分词word_list = jieba.cut(data, cut_all=True)word_list_result = ' '.join(word_list)# 词云的配置word_cloud = WordCloud(# 设置背景background_color='white',# 设置显示的最大的词云数量max_words=50,# 设置词的跨度font_step=10,# 设置字体font_path=r'C:\Windows\Fonts\simsun.ttc',# 设置词云的高度和宽度height=300,width=300,# 设置配色方案random_state=30)# 得到结果my_cloud = word_cloud.generate(word_list_result)plt.imshow(my_cloud)plt.axis("off")plt.show()if __name__ == '__main__':review_file_path = './data.txt'review_contents = get_data(review_file_path)store_contents(review_contents)review_content_file_path = './review_data.txt'draw_picture(review_content_file_path)

这篇关于国人为什么不再唯金牌论?——我用Python分析东京奥运会的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/299018

相关文章

python panda库从基础到高级操作分析

《pythonpanda库从基础到高级操作分析》本文介绍了Pandas库的核心功能,包括处理结构化数据的Series和DataFrame数据结构,数据读取、清洗、分组聚合、合并、时间序列分析及大数据... 目录1. Pandas 概述2. 基本操作:数据读取与查看3. 索引操作:精准定位数据4. Group

Python pandas库自学超详细教程

《Pythonpandas库自学超详细教程》文章介绍了Pandas库的基本功能、安装方法及核心操作,涵盖数据导入(CSV/Excel等)、数据结构(Series、DataFrame)、数据清洗、转换... 目录一、什么是Pandas库(1)、Pandas 应用(2)、Pandas 功能(3)、数据结构二、安

Python使用Tenacity一行代码实现自动重试详解

《Python使用Tenacity一行代码实现自动重试详解》tenacity是一个专为Python设计的通用重试库,它的核心理念就是用简单、清晰的方式,为任何可能失败的操作添加重试能力,下面我们就来看... 目录一切始于一个简单的 API 调用Tenacity 入门:一行代码实现优雅重试精细控制:让重试按我

Python安装Pandas库的两种方法

《Python安装Pandas库的两种方法》本文介绍了三种安装PythonPandas库的方法,通过cmd命令行安装并解决版本冲突,手动下载whl文件安装,更换国内镜像源加速下载,最后建议用pipli... 目录方法一:cmd命令行执行pip install pandas方法二:找到pandas下载库,然后

MySQL中EXISTS与IN用法使用与对比分析

《MySQL中EXISTS与IN用法使用与对比分析》在MySQL中,EXISTS和IN都用于子查询中根据另一个查询的结果来过滤主查询的记录,本文将基于工作原理、效率和应用场景进行全面对比... 目录一、基本用法详解1. IN 运算符2. EXISTS 运算符二、EXISTS 与 IN 的选择策略三、性能对比

Python实现网格交易策略的过程

《Python实现网格交易策略的过程》本文讲解Python网格交易策略,利用ccxt获取加密货币数据及backtrader回测,通过设定网格节点,低买高卖获利,适合震荡行情,下面跟我一起看看我们的第一... 网格交易是一种经典的量化交易策略,其核心思想是在价格上下预设多个“网格”,当价格触发特定网格时执行买

Python标准库之数据压缩和存档的应用详解

《Python标准库之数据压缩和存档的应用详解》在数据处理与存储领域,压缩和存档是提升效率的关键技术,Python标准库提供了一套完整的工具链,下面小编就来和大家简单介绍一下吧... 目录一、核心模块架构与设计哲学二、关键模块深度解析1.tarfile:专业级归档工具2.zipfile:跨平台归档首选3.

使用Python构建智能BAT文件生成器的完美解决方案

《使用Python构建智能BAT文件生成器的完美解决方案》这篇文章主要为大家详细介绍了如何使用wxPython构建一个智能的BAT文件生成器,它不仅能够为Python脚本生成启动脚本,还提供了完整的文... 目录引言运行效果图项目背景与需求分析核心需求技术选型核心功能实现1. 数据库设计2. 界面布局设计3

MySQL 内存使用率常用分析语句

《MySQL内存使用率常用分析语句》用户整理了MySQL内存占用过高的分析方法,涵盖操作系统层确认及数据库层bufferpool、内存模块差值、线程状态、performance_schema性能数据... 目录一、 OS层二、 DB层1. 全局情况2. 内存占js用详情最近连续遇到mysql内存占用过高导致

Python进行JSON和Excel文件转换处理指南

《Python进行JSON和Excel文件转换处理指南》在数据交换与系统集成中,JSON与Excel是两种极为常见的数据格式,本文将介绍如何使用Python实现将JSON转换为格式化的Excel文件,... 目录将 jsON 导入为格式化 Excel将 Excel 导出为结构化 JSON处理嵌套 JSON: