Python爬虫实战:爬取人民日报数据写入Mysql

本文主要是介绍Python爬虫实战:爬取人民日报数据写入Mysql,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

一、写这个爬虫的目的:
学了一段时间的Python、SQL语句,主要想通过这个爬虫熟悉静态网页站点的爬取,以及将爬取数据在数据库中进行操作的过程。
二、目标网站分析:
人民日报网站是静态网站,其页面跳转是通过 URL 的改变完成的,即所有数据一开始就是加载好的。我们只需要去 html 中提取相应的数据即可,不涉及到诸如 Ajax 这样的动态加载方法。
三、用到的主要第三方库:
通过上述分析,主要用了requests、lxml、pymysql、datetime这几个第三方库。其中,requests 库主要用来发起请求及接受响应信息,lxml主要通过Xpath方法来解析html内容,pymysql主要用于将爬取的数据写入Mysql数据库。
四、代码:

import requests
from lxml import etree
import pymysql
from datetime import datetime,timedelta
import timedef download_people_daily(year, month, day):#获取目标网页的 html 内容:def get_html_text(url):headers={'accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8','user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36',}html=requests.get(url,headers=headers)html.raise_for_status()html.encoding="utf-8"return etree.HTML(html.text)url='http://paper.people.com.cn/rmrb/html/'  + year + '-' + month + '/' + day + '/' +'nbs.D110000renmrb_01.htm'#爬取当天报纸的各版面的链接,将其保存为一个数组,并返回:def get_page_link(year,month,day):    selector1=get_html_text(url)temp_pagelink=selector1.xpath('//*[@id="pageLink"]/@href')    #获取版面相对路径pagelink=[]for i1 in range(len(temp_pagelink)):pagelink.append('http://paper.people.com.cn/rmrb/html/'  + year + '-' + month + '/' + day + '/' +temp_pagelink[i1] )    #获取版面绝对路径,并将其添加到一个列表中return pagelink#爬取当天报纸某一版面的所有文章的链接,将其保存为一个数组,并返回:pageurl=get_page_link(year,month,day)articlelink=[]for i2 in pageurl:selector2=get_html_text(i2)temp_articlelink=selector2.xpath('//*[@id="titleList"]/ul/li[*]/a/@href')    #获取文章网址相对路径for i3 in range(len(temp_articlelink)):    articlelink.append('http://paper.people.com.cn/rmrb/html/'  + year + '-' + month + '/' + day + '/' +temp_articlelink[i3])       #获取文章网址绝对路径,并将其添加到一个列表中#爬取当天报纸所有文章的标题、时间版面、正文:title=[]dateinfo=[]content=[]for i4 in articlelink:selector3=get_html_text(i4)single_title=selector3.xpath('/html/body/div[1]/div/div[2]/div[4]/div/h1/text()')      #获取文章标题for i5 in range(len(single_title)):title.append(single_title[i5])single_dateinfo=selector3.xpath('/html/body/div[1]/div/div[2]/div[4]/div/div[1]/text()')     #获取版面时间for i6 in range(len(single_dateinfo)):dateinfo.append(single_dateinfo[i6])single_content=selector3.xpath('//*[@id="ozoom"]/p/text()')      #获取文章正文for i7 in range(len(single_content)):content.append(single_content[i7])# 将获取的信息写入MySQL数据库(不含文章正文):for i in range(len(dateinfo)):db = pymysql.connect(host='localhost', user='root', password='123456', port=3306, db='spiders')cursor = db.cursor()sql = 'INSERT INTO people_daily(dateinfo,articlelink,title) values(%s, %s, %s)'try:cursor.execute(sql, (dateinfo[i],articlelink[i],title[i]))db.commit()except:db.rollback()db.close()def gen_dates(b_date, days):day = timedelta(days = 1)for i in range(days):yield b_date + day * idef get_date_list(beginDate, endDate):start = datetime.strptime(beginDate, "%Y%m%d")      #开始日期end = datetime.strptime(endDate, "%Y%m%d")      #结束日期data = []for d in gen_dates(start, (end-start).days):data.append(d)   return data     #获得开始日期和结束日期之间的日期列表if __name__ == '__main__':'''主函数:程序入口'''# 输入起止日期,爬取之间的新闻beginDate = input('请输入开始日期(格式如 20190808 ):')endDate = input('请输入结束日期(格式如 20190808 ):')data = get_date_list(beginDate, endDate)for d in data:year = str(d.year)month = str(d.month) if d.month >=10 else '0' + str(d.month)day = str(d.day) if d.day >=10 else '0' + str(d.day)download_people_daily(year, month, day)print("爬取完成:" + year + month + day)# time.sleep(1)        # 怕被封 IP 爬一爬缓一缓,爬的少的话可以注释掉

五、爬取效果:
1、编译器中的结果:在编译器提示下输入想要爬取数据的开始日期、结束日期后等待爬取结果。每完成一天的爬取,程序会在窗口中自动显示“爬取完成:********(当天日期)”。在这里插入图片描述
2、Navicat中Mysql的数据写入结果:在上述窗口显示所有日期的爬取均已完成后,在数据库中刷新表单后可以看到数据的写入结果。
在这里插入图片描述

这篇关于Python爬虫实战:爬取人民日报数据写入Mysql的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/677932

相关文章

使用Python和OpenCV库实现实时颜色识别系统

《使用Python和OpenCV库实现实时颜色识别系统》:本文主要介绍使用Python和OpenCV库实现的实时颜色识别系统,这个系统能够通过摄像头捕捉视频流,并在视频中指定区域内识别主要颜色(红... 目录一、引言二、系统概述三、代码解析1. 导入库2. 颜色识别函数3. 主程序循环四、HSV色彩空间详解

一文深入详解Python的secrets模块

《一文深入详解Python的secrets模块》在构建涉及用户身份认证、权限管理、加密通信等系统时,开发者最不能忽视的一个问题就是“安全性”,Python在3.6版本中引入了专门面向安全用途的secr... 目录引言一、背景与动机:为什么需要 secrets 模块?二、secrets 模块的核心功能1. 基

一文详解MySQL如何设置自动备份任务

《一文详解MySQL如何设置自动备份任务》设置自动备份任务可以确保你的数据库定期备份,防止数据丢失,下面我们就来详细介绍一下如何使用Bash脚本和Cron任务在Linux系统上设置MySQL数据库的自... 目录1. 编写备份脚本1.1 创建并编辑备份脚本1.2 给予脚本执行权限2. 设置 Cron 任务2

python常见环境管理工具超全解析

《python常见环境管理工具超全解析》在Python开发中,管理多个项目及其依赖项通常是一个挑战,下面:本文主要介绍python常见环境管理工具的相关资料,文中通过代码介绍的非常详细,需要的朋友... 目录1. conda2. pip3. uvuv 工具自动创建和管理环境的特点4. setup.py5.

SQL Server修改数据库名及物理数据文件名操作步骤

《SQLServer修改数据库名及物理数据文件名操作步骤》在SQLServer中重命名数据库是一个常见的操作,但需要确保用户具有足够的权限来执行此操作,:本文主要介绍SQLServer修改数据... 目录一、背景介绍二、操作步骤2.1 设置为单用户模式(断开连接)2.2 修改数据库名称2.3 查找逻辑文件名

Python常用命令提示符使用方法详解

《Python常用命令提示符使用方法详解》在学习python的过程中,我们需要用到命令提示符(CMD)进行环境的配置,:本文主要介绍Python常用命令提示符使用方法的相关资料,文中通过代码介绍的... 目录一、python环境基础命令【Windows】1、检查Python是否安装2、 查看Python的安

SQL Server数据库死锁处理超详细攻略

《SQLServer数据库死锁处理超详细攻略》SQLServer作为主流数据库管理系统,在高并发场景下可能面临死锁问题,影响系统性能和稳定性,这篇文章主要给大家介绍了关于SQLServer数据库死... 目录一、引言二、查询 Sqlserver 中造成死锁的 SPID三、用内置函数查询执行信息1. sp_w

Python UV安装、升级、卸载详细步骤记录

《PythonUV安装、升级、卸载详细步骤记录》:本文主要介绍PythonUV安装、升级、卸载的详细步骤,uv是Astral推出的下一代Python包与项目管理器,主打单一可执行文件、极致性能... 目录安装检查升级设置自动补全卸载UV 命令总结 官方文档详见:https://docs.astral.sh/

Python并行处理实战之如何使用ProcessPoolExecutor加速计算

《Python并行处理实战之如何使用ProcessPoolExecutor加速计算》Python提供了多种并行处理的方式,其中concurrent.futures模块的ProcessPoolExecu... 目录简介完整代码示例代码解释1. 导入必要的模块2. 定义处理函数3. 主函数4. 生成数字列表5.

Python中help()和dir()函数的使用

《Python中help()和dir()函数的使用》我们经常需要查看某个对象(如模块、类、函数等)的属性和方法,Python提供了两个内置函数help()和dir(),它们可以帮助我们快速了解代... 目录1. 引言2. help() 函数2.1 作用2.2 使用方法2.3 示例(1) 查看内置函数的帮助(