(已更新)获取CSDN访问量、排名等信息存入JSON文件并绘图进行分析

本文主要是介绍(已更新)获取CSDN访问量、排名等信息存入JSON文件并绘图进行分析,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!


运行环境: Python3.6Pycharm2017.2Windows10 RS4
GitHub地址:https://github.com/IMWoolei/CSDN_GetRange


前言

我的CSDN博客是今年八月份才开始写的,写博客的主要目的是对近期学习的知识点进行总结。在写博客的过程中也开始关注博客访问量、排名等等信息。
因为正在练习爬虫技巧,所以我写了一个爬虫程序来获取我的CSDN博客访问量、排名、原创文章数、评论数这四个信息。

  • 初级目标是将其存入jsoncsv文件中
  • 最终目标是通过将收集的数据可视化来查看其关系。

正文

获取CSDN访问量、排名等信息

  • 我们通过电脑浏览器任意一篇CSDN博文,发现如果不是排名靠前的博客排名上显示的是千里之外,而不是具体的排名名次。但是在移动端显示时能够正常显示名次,所以这次我爬取的是移动端的网页
    移动端
  • 为了方便将获取的信息存储并访问,所以将其存入json文件中,json的数据格式和字典dict类型一致,所以调用访问极为方便。

获取信息代码示例

from urllib.request import Request, urlopen
from bs4 import BeautifulSoupurl = 'http://m.blog.csdn.net/IMW_MG'   # 移动端即为子域名m.blog.csdn.net
header = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.94 Safari/537.36'}request = Request(url, headers=header)
response = urlopen(request)
bsObj = BeautifulSoup(response, 'lxml') 
info_list = bsObj.find('ul', {'class': 'personal_list'}).findAll('li') # 需要获取的信息全部存在于<ul></ul>标签中
info_dict = {}
for item in info_list:info_dict[item.find('span').get_text()] = int(item.find('em').get_text()) 
print(info_dict)    # 运行结果
{'访问': 19836, '排名': 70241, '原创': 46, '评论': 8}

将获取信息存入json文件中

将获取信息存入json文件中完整代码

from urllib.request import Request, urlopen
from bs4 import BeautifulSoup
import json
import time# 获取当前访问量
def getInfo():url = 'http://m.blog.csdn.net/IMW_MG'   # 移动端即为子域名m.blog.csdn.netheader = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.94 Safari/537.36'}request = Request(url, headers=header)response = urlopen(request)bsObj = BeautifulSoup(response, 'lxml')info_list = bsObj.find('ul', {'class': 'personal_list'}).findAll('li')info_dict = {}for item in info_list:info_dict[item.find('span').get_text()] = int(item.find('em').get_text())return info_dict# 12-02 凌晨更新:之前写入文本的是错误的JSON格式,现在做了一些修改
def writeData():# global info_time# info_time = {}fmt = "%Y-%m-%d %H:%M"  # 格式化时间显示info_dict = getInfo()info_time[time.strftime(fmt, time.localtime())] = info_dictprint(info_time)info_json = json.dumps(info_time, ensure_ascii=False)with open('CSDN_info.json', 'w', encoding='utf8') as json_file:  # 注意编码问题,否则中文无法正常显示json_file.write(info_json)json_file.close()if __name__ == "__main__":writeData()

为了获取访问量、排名信息走势,所以必然应该长时间定时获取博客信息。
所以我们应该将该程序定时执行,定时执行又分两种:

  • 直接修改代码定时执行相关代码块

    • 循环+延时,也是最简单粗暴的,可以在__main__引用模块中修改为如下:

      if __name__ == "__main__":import sys, timecount = 1while True:try:print("第 %d 次获取排名信息" % count)writeData()count += 1time.sleep(60)except Exception:print('产生出错,获取信息终止')sys.exit()
    • sched来定时执行任务【链接】

    • 直接使用time模块定时执行
    • ….
  • 在系统中执行脚本使其定时执行

    • Linux系统中可以向crontab中添加任务来做到定时执行,比如在我的树莓派Linux系统中编辑 vim /etc/crontab,在其末尾加入以下任务:
      
      # 10分钟执行一次py代码,并将产生信息存入Run.log文件中,10 *    * * *   root   /usr/bin/python3 /home/pi/Desktop/CSDN/CSDN_Info.py > /home/pi/Desktop/CSDN_Info/Run.log
    
    # 使定时任务生效sudo /etc/init.d/cron restart
    • Windows系统中创建Python定时任务可以参考这篇博客【链接】

收集数据可视化

关于数据可视化这一块,其实就是想把上面得到的数据绘制成折线图。
折线图的绘制我用到的是matplotlib模块,早就听说这个模块功能的强大,尝试了一下果然还是不太好入门,一下午的时间在设置x轴字体大小上差点弄到崩溃,所以我就弄了点皮毛现学现卖。

在使用matplotlib模块绘制图表可以参考以下两篇博文:
– 使用Python matplotlib绘制股票走势图:http://www.jdon.com/idea/matplotlib.html
python使用matplotlib绘制折线图教程:http://www.jb51.net/article/104916.htm

首先附上完整代码

from urllib.request import Request, urlopen
from bs4 import BeautifulSoup
from pylab import *
import matplotlib.pyplot as plt
import json
import time
import sys# 获取当前访问量
def getInfo():url = 'http://m.blog.csdn.net/IMW_MG'header = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.94 Safari/537.36'}request = Request(url, headers=header)response = urlopen(request)bsObj = BeautifulSoup(response, 'lxml')info_list = bsObj.find('ul', {'class': 'personal_list'}).findAll('li')info_dict = {}for item in info_list:info_dict[item.find('span').get_text()] = int(item.find('em').get_text())return info_dictdef writeData():# global info_time# info_time = {}fmt = "%Y-%m-%d %H:%M"  # 格式化时间显示info_dict = getInfo()info_time[time.strftime(fmt, time.localtime())] = info_dictprint(info_time)info_json = json.dumps(info_time, ensure_ascii=False)with open('CSDN_info.json', 'w', encoding='utf8') as json_file:  # 注意编码问题,否则中文无法正常显示json_file.write(info_json)print(info_json)json_file.close()def drawChart(filename):matplotlib.use('Agg')mpl.rcParams['font.sans-serif'] = ['SimHei']  # 设置中文字体,否则中文显示乱码with open(filename, 'r', encoding='utf8') as file:info_time = json.loads(file)  # 读取json数据# 因为不懂matplotllib,所以只好获取列表来绘制date = []  # 用于存时间view_coun = []  # 用于存访问量ranking_coun = []  # 用于存放排名article_coun = []  # 存放原创文章数comment_coun = []  # 评论数for key in info_time.keys():date.append(key)view_coun.append(info_time[key]['访问'])ranking_coun.append(info_time[key]['排名'])article_coun.append(info_time[key]['原创'])comment_coun.append(info_time[key]['评论'])fig = plt.figure(figsize=(20, 7))  # 设置图表大小fig.suptitle('我的CSDN博客信息\n', fontsize=18, fontweight='bold')  # 设置图表大标题(18号、加粗)axes_view = fig.add_subplot(1, 3, 1)  # 第一个子图表,绘制访问量axes_ranking = fig.add_subplot(1, 3, 2)  # 第二个子图表,绘制名次信息axes_article = fig.add_subplot(1, 3, 3)  # 第三个子图表,绘制文章原创数变化# axes_comment = fig.add_subplot(2, 2, 4)# 下面绘制子图表的代码冗余得无法入目,时间太晚了,先做到实现基本功能,之后再继续更新优化axes_view.set_title('访问量变化')  # 设置子图表标题for label in axes_view.xaxis.get_ticklabels():  # 每一个x轴标签设置倾斜30度以方便查看label.set_rotation(30)axes_view.set_ylabel('访问量', fontsize=9)  # 设置y轴axes_view.plot(date, view_coun, marker='o', mec='r', mfc='w')  # 绘制折线并设置样式axes_ranking.set_title('排名变化')for label in axes_ranking.xaxis.get_ticklabels():label.set_rotation(30)axes_ranking.set_ylabel('访问量', fontsize=9)axes_ranking.plot(date, ranking_coun, marker='*', mec='r', mfc='w')axes_article.set_title('原创文章变化')for label in axes_article.xaxis.get_ticklabels():label.set_rotation(30)axes_view.set_ylabel('访问量', fontsize=9)axes_article.plot(date, article_coun, marker='v', mec='r', mfc='w')fig.savefig('我的CSDN博客信息.jpg')   # 将绘制的图表保存# plt.show()if __name__ == "__main__":count = 1info_time = {}  # 创建一个全局字典变量用于存储信息while True:try:print("第 %d 次获取排名信息" % count)writeData()time.sleep(3600)drawChart('CSDN_Info.json')  # 绘制json文件中信息的图表count += 1time.sleep(3600)except Exception:print('产生出错,获取信息终止')sys.exit()

效果展示

  • 获取的JSON数据效果展示
    json

  • 生成的折线图效果展示
    chart

简单的数据分析

  • 最后也来分析一下吧,虽然说单天的数据不具有完全的代表性
    • 访问量增长幅度最快的还是白天,早上6:00之后增长速度大于深夜的增长速度,这也是符合常理的,毕竟晚上还翻CSDN的人是少数。
    • 原创文章的增加会带来访问量的变化,在文章数越多的情况下,这种变化越不明显。
    • 排名更新较慢,到了晚上才更新了一次排名信息

这篇关于(已更新)获取CSDN访问量、排名等信息存入JSON文件并绘图进行分析的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/662537

相关文章

Nginx分布式部署流程分析

《Nginx分布式部署流程分析》文章介绍Nginx在分布式部署中的反向代理和负载均衡作用,用于分发请求、减轻服务器压力及解决session共享问题,涵盖配置方法、策略及Java项目应用,并提及分布式事... 目录分布式部署NginxJava中的代理代理分为正向代理和反向代理正向代理反向代理Nginx应用场景

Python版本信息获取方法详解与实战

《Python版本信息获取方法详解与实战》在Python开发中,获取Python版本号是调试、兼容性检查和版本控制的重要基础操作,本文详细介绍了如何使用sys和platform模块获取Python的主... 目录1. python版本号获取基础2. 使用sys模块获取版本信息2.1 sys模块概述2.1.1

Redis中的有序集合zset从使用到原理分析

《Redis中的有序集合zset从使用到原理分析》Redis有序集合(zset)是字符串与分值的有序映射,通过跳跃表和哈希表结合实现高效有序性管理,适用于排行榜、延迟队列等场景,其时间复杂度低,内存占... 目录开篇:排行榜背后的秘密一、zset的基本使用1.1 常用命令1.2 Java客户端示例二、zse

Redis中的AOF原理及分析

《Redis中的AOF原理及分析》Redis的AOF通过记录所有写操作命令实现持久化,支持always/everysec/no三种同步策略,重写机制优化文件体积,与RDB结合可平衡数据安全与恢复效率... 目录开篇:从日记本到AOF一、AOF的基本执行流程1. 命令执行与记录2. AOF重写机制二、AOF的

java中判断json key是否存在的几种方法

《java中判断jsonkey是否存在的几种方法》在使用Java处理JSON数据时,如何判断某一个key是否存在?本文就来介绍三种方法,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的... 目http://www.chinasem.cn录第一种方法是使用 jsONObject 的 has 方法

Java发送SNMP至交换机获取交换机状态实现方式

《Java发送SNMP至交换机获取交换机状态实现方式》文章介绍使用SNMP4J库(2.7.0)通过RCF1213-MIB协议获取交换机单/多路状态,需开启SNMP支持,重点对比SNMPv1、v2c、v... 目录交换机协议SNMP库获取交换机单路状态获取交换机多路状态总结交换机协议这里使用的交换机协议为常

Go语言中json操作的实现

《Go语言中json操作的实现》本文主要介绍了Go语言中的json操作的实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧... 目录 一、jsOChina编程N 与 Go 类型对应关系️ 二、基本操作:编码与解码 三、结构体标签(Struc

MyBatis Plus大数据量查询慢原因分析及解决

《MyBatisPlus大数据量查询慢原因分析及解决》大数据量查询慢常因全表扫描、分页不当、索引缺失、内存占用高及ORM开销,优化措施包括分页查询、流式读取、SQL优化、批处理、多数据源、结果集二次... 目录大数据量查询慢的常见原因优化方案高级方案配置调优监控与诊断总结大数据量查询慢的常见原因MyBAT

分析 Java Stream 的 peek使用实践与副作用处理方案

《分析JavaStream的peek使用实践与副作用处理方案》StreamAPI的peek操作是中间操作,用于观察元素但不终止流,其副作用风险包括线程安全、顺序混乱及性能问题,合理使用场景有限... 目录一、peek 操作的本质:有状态的中间操作二、副作用的定义与风险场景1. 并行流下的线程安全问题2. 顺

MyBatis/MyBatis-Plus同事务循环调用存储过程获取主键重复问题分析及解决

《MyBatis/MyBatis-Plus同事务循环调用存储过程获取主键重复问题分析及解决》MyBatis默认开启一级缓存,同一事务中循环调用查询方法时会重复使用缓存数据,导致获取的序列主键值均为1,... 目录问题原因解决办法如果是存储过程总结问题myBATis有如下代码获取序列作为主键IdMappe