Python爬虫实战:爬取人民日报数据写入Mysql

本文主要是介绍Python爬虫实战:爬取人民日报数据写入Mysql,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

一、写这个爬虫的目的:
学了一段时间的Python、SQL语句,主要想通过这个爬虫熟悉静态网页站点的爬取,以及将爬取数据在数据库中进行操作的过程。
二、目标网站分析:
人民日报网站是静态网站,其页面跳转是通过 URL 的改变完成的,即所有数据一开始就是加载好的。我们只需要去 html 中提取相应的数据即可,不涉及到诸如 Ajax 这样的动态加载方法。
三、用到的主要第三方库:
通过上述分析,主要用了requests、lxml、pymysql、datetime这几个第三方库。其中,requests 库主要用来发起请求及接受响应信息,lxml主要通过Xpath方法来解析html内容,pymysql主要用于将爬取的数据写入Mysql数据库。
四、代码:

import requests
from lxml import etree
import pymysql
from datetime import datetime,timedelta
import timedef download_people_daily(year, month, day):#获取目标网页的 html 内容:def get_html_text(url):headers={'accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8','user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36',}html=requests.get(url,headers=headers)html.raise_for_status()html.encoding="utf-8"return etree.HTML(html.text)url='http://paper.people.com.cn/rmrb/html/'  + year + '-' + month + '/' + day + '/' +'nbs.D110000renmrb_01.htm'#爬取当天报纸的各版面的链接,将其保存为一个数组,并返回:def get_page_link(year,month,day):    selector1=get_html_text(url)temp_pagelink=selector1.xpath('//*[@id="pageLink"]/@href')    #获取版面相对路径pagelink=[]for i1 in range(len(temp_pagelink)):pagelink.append('http://paper.people.com.cn/rmrb/html/'  + year + '-' + month + '/' + day + '/' +temp_pagelink[i1] )    #获取版面绝对路径,并将其添加到一个列表中return pagelink#爬取当天报纸某一版面的所有文章的链接,将其保存为一个数组,并返回:pageurl=get_page_link(year,month,day)articlelink=[]for i2 in pageurl:selector2=get_html_text(i2)temp_articlelink=selector2.xpath('//*[@id="titleList"]/ul/li[*]/a/@href')    #获取文章网址相对路径for i3 in range(len(temp_articlelink)):    articlelink.append('http://paper.people.com.cn/rmrb/html/'  + year + '-' + month + '/' + day + '/' +temp_articlelink[i3])       #获取文章网址绝对路径,并将其添加到一个列表中#爬取当天报纸所有文章的标题、时间版面、正文:title=[]dateinfo=[]content=[]for i4 in articlelink:selector3=get_html_text(i4)single_title=selector3.xpath('/html/body/div[1]/div/div[2]/div[4]/div/h1/text()')      #获取文章标题for i5 in range(len(single_title)):title.append(single_title[i5])single_dateinfo=selector3.xpath('/html/body/div[1]/div/div[2]/div[4]/div/div[1]/text()')     #获取版面时间for i6 in range(len(single_dateinfo)):dateinfo.append(single_dateinfo[i6])single_content=selector3.xpath('//*[@id="ozoom"]/p/text()')      #获取文章正文for i7 in range(len(single_content)):content.append(single_content[i7])# 将获取的信息写入MySQL数据库(不含文章正文):for i in range(len(dateinfo)):db = pymysql.connect(host='localhost', user='root', password='123456', port=3306, db='spiders')cursor = db.cursor()sql = 'INSERT INTO people_daily(dateinfo,articlelink,title) values(%s, %s, %s)'try:cursor.execute(sql, (dateinfo[i],articlelink[i],title[i]))db.commit()except:db.rollback()db.close()def gen_dates(b_date, days):day = timedelta(days = 1)for i in range(days):yield b_date + day * idef get_date_list(beginDate, endDate):start = datetime.strptime(beginDate, "%Y%m%d")      #开始日期end = datetime.strptime(endDate, "%Y%m%d")      #结束日期data = []for d in gen_dates(start, (end-start).days):data.append(d)   return data     #获得开始日期和结束日期之间的日期列表if __name__ == '__main__':'''主函数:程序入口'''# 输入起止日期,爬取之间的新闻beginDate = input('请输入开始日期(格式如 20190808 ):')endDate = input('请输入结束日期(格式如 20190808 ):')data = get_date_list(beginDate, endDate)for d in data:year = str(d.year)month = str(d.month) if d.month >=10 else '0' + str(d.month)day = str(d.day) if d.day >=10 else '0' + str(d.day)download_people_daily(year, month, day)print("爬取完成:" + year + month + day)# time.sleep(1)        # 怕被封 IP 爬一爬缓一缓,爬的少的话可以注释掉

五、爬取效果:
1、编译器中的结果:在编译器提示下输入想要爬取数据的开始日期、结束日期后等待爬取结果。每完成一天的爬取,程序会在窗口中自动显示“爬取完成:********(当天日期)”。在这里插入图片描述
2、Navicat中Mysql的数据写入结果:在上述窗口显示所有日期的爬取均已完成后,在数据库中刷新表单后可以看到数据的写入结果。
在这里插入图片描述

这篇关于Python爬虫实战:爬取人民日报数据写入Mysql的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/651479

相关文章

MySQL数据库双机热备的配置方法详解

《MySQL数据库双机热备的配置方法详解》在企业级应用中,数据库的高可用性和数据的安全性是至关重要的,MySQL作为最流行的开源关系型数据库管理系统之一,提供了多种方式来实现高可用性,其中双机热备(M... 目录1. 环境准备1.1 安装mysql1.2 配置MySQL1.2.1 主服务器配置1.2.2 从

Python版本信息获取方法详解与实战

《Python版本信息获取方法详解与实战》在Python开发中,获取Python版本号是调试、兼容性检查和版本控制的重要基础操作,本文详细介绍了如何使用sys和platform模块获取Python的主... 目录1. python版本号获取基础2. 使用sys模块获取版本信息2.1 sys模块概述2.1.1

一文详解Python如何开发游戏

《一文详解Python如何开发游戏》Python是一种非常流行的编程语言,也可以用来开发游戏模组,:本文主要介绍Python如何开发游戏的相关资料,文中通过代码介绍的非常详细,需要的朋友可以参考下... 目录一、python简介二、Python 开发 2D 游戏的优劣势优势缺点三、Python 开发 3D

Python函数作用域与闭包举例深度解析

《Python函数作用域与闭包举例深度解析》Python函数的作用域规则和闭包是编程中的关键概念,它们决定了变量的访问和生命周期,:本文主要介绍Python函数作用域与闭包的相关资料,文中通过代码... 目录1. 基础作用域访问示例1:访问全局变量示例2:访问外层函数变量2. 闭包基础示例3:简单闭包示例4

Python实现字典转字符串的五种方法

《Python实现字典转字符串的五种方法》本文介绍了在Python中如何将字典数据结构转换为字符串格式的多种方法,首先可以通过内置的str()函数进行简单转换;其次利用ison.dumps()函数能够... 目录1、使用json模块的dumps方法:2、使用str方法:3、使用循环和字符串拼接:4、使用字符

Python版本与package版本兼容性检查方法总结

《Python版本与package版本兼容性检查方法总结》:本文主要介绍Python版本与package版本兼容性检查方法的相关资料,文中提供四种检查方法,分别是pip查询、conda管理、PyP... 目录引言为什么会出现兼容性问题方法一:用 pip 官方命令查询可用版本方法二:conda 管理包环境方法

深入理解Mysql OnlineDDL的算法

《深入理解MysqlOnlineDDL的算法》本文主要介绍了讲解MysqlOnlineDDL的算法,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小... 目录一、Online DDL 是什么?二、Online DDL 的三种主要算法2.1COPY(复制法)

Linux下利用select实现串口数据读取过程

《Linux下利用select实现串口数据读取过程》文章介绍Linux中使用select、poll或epoll实现串口数据读取,通过I/O多路复用机制在数据到达时触发读取,避免持续轮询,示例代码展示设... 目录示例代码(使用select实现)代码解释总结在 linux 系统里,我们可以借助 select、

基于Python开发Windows自动更新控制工具

《基于Python开发Windows自动更新控制工具》在当今数字化时代,操作系统更新已成为计算机维护的重要组成部分,本文介绍一款基于Python和PyQt5的Windows自动更新控制工具,有需要的可... 目录设计原理与技术实现系统架构概述数学建模工具界面完整代码实现技术深度分析多层级控制理论服务层控制注

mysql8.0.43使用InnoDB Cluster配置主从复制

《mysql8.0.43使用InnoDBCluster配置主从复制》本文主要介绍了mysql8.0.43使用InnoDBCluster配置主从复制,文中通过示例代码介绍的非常详细,对大家的学习或者... 目录1、配置Hosts解析(所有服务器都要执行)2、安装mysql shell(所有服务器都要执行)3、