python爬虫十四:scrapy crawlspider的介绍及使用

2023-10-30 23:30

本文主要是介绍python爬虫十四:scrapy crawlspider的介绍及使用,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1、scrapy crawlspider的介绍

他有着自动提取规则,内部封装的只要我们爬取的数据有规律并且在网页源码中,就可以实现他的自动抓取,我们不用管具体交给它做,下面会有案例展示
之前的代码中,我们有很大一部分时间在寻找下一页的URL地址或者内容的URL地址上面,这个过程能更简单一些吗?
思路:
1.从response中提取所有的li标签对应的URL地址
2.自动的构造自己resquests请求,发送给引擎
目标:通过爬虫了解crawlspider的使用
生成crawlspider的命令:scrapy genspider -t crawl 爬虫名字 域名

2、Rule规则类

class scrapy.spiders.Rule(link_extractor, # 一个LinkExtractor对象,用于定义爬取规则。callback = None, # 满足这个规则的url,应该要执行哪个回调函数。cb_kwargs = None, follow = None, # 指定根据该规则从response中提取的链接是否需要跟进。process_links = None, # 从link_extractor中获取到链接后会传递给这个函数,用来过滤不需要爬取的链接。process_request = None
)

3、LinkExtractors链接提取器的介绍

class scrapy.linkextractors.LinkExtractor(allow = (), # 允许的url。所有满足这个正则表达式的url都会被提取。deny = (), # 禁止的url。所有满足这个正则表达式的url都不会被提取。allow_domains = (), # 允许的域名。只有在这个里面指定的域名的url才会被提取。deny_domains = (), # 禁止的域名。所有在这个里面指定的域名的url都不会被提取。deny_extensions = None,restrict_xpaths = (), # 严格的xpath。和allow共同过滤链接。tags = ('a','area'),attrs = ('href'),canonicalize = True,unique = True,process_value = None
)

5、案例演示 爬取小程序社区(实操crawlspider让他自动抓取感受他的强大)

附上代码,有问题留言我解答,这是Rule内部封装的提取规则,你想看他怎么实现的就看他的源码,我只会用知道他很神奇,我也不知道他的原理,大家别问我原理,其余的欢迎提问
目标网址:点击进入目标网址
第一步:创建项目scrapy startproject 项目名
我以heihei为例(先在setting里面写一下:LOG_LEVEL='WARNING')
第二步:进入项目cd 项目名
cd heihei
第三步:创建crawlspiderscrapy genspider -t crawl 爬虫名 爬虫区域
我以scrapy genspider -t crawl haha wxapp-union.com
为例爬取
第四步:在爬虫里面搞事情
将下面的代码写入haha就可实现
第五步:终端输入scrapy crawl haha回车就可以看到效果

import scrapy
from scrapy.linkextractors import LinkExtractor
from scrapy.spiders import CrawlSpider, Rule
# 需求:爬取微信小程序社区的 标题 作者 日期 翻页
class WxappSpider(CrawlSpider):name = 'haha'allowed_domains = ['wxapp-union.com']start_urls = ['http://www.wxapp-union.com/portal.php?mod=list&catid=2&page=1']rules = (# 列表页面Rule(LinkExtractor(allow=r'www.wxapp-union.com/portal.php\?mod=list&catid=2&page=\d+'), follow=True),# 详情页面Rule(LinkExtractor(allow=r'www.wxapp-union.com/article-\d+-1.html'), callback='parse_item'),)def parse_item(self, response):item = {}item['title'] = response.xpath("//h1[@class='ph']/text()").extract_first()item['author'] = response.xpath("//p[@class='authors']/a/text()").extract_first()item['pub_data'] = response.xpath("//p[@class='authors']/span/text()").extract_first()print(item)

效果图:ctrl+c终止进程,想要保存数据在pipeline里面操作,我的前几篇文章有讲,想保存的话自己翻着看看
在这里插入图片描述

这篇关于python爬虫十四:scrapy crawlspider的介绍及使用的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/311281

相关文章

Git可视化管理工具(SourceTree)使用操作大全经典

《Git可视化管理工具(SourceTree)使用操作大全经典》本文详细介绍了SourceTree作为Git可视化管理工具的常用操作,包括连接远程仓库、添加SSH密钥、克隆仓库、设置默认项目目录、代码... 目录前言:连接Gitee or github,获取代码:在SourceTree中添加SSH密钥:Cl

Python开发文字版随机事件游戏的项目实例

《Python开发文字版随机事件游戏的项目实例》随机事件游戏是一种通过生成不可预测的事件来增强游戏体验的类型,在这篇博文中,我们将使用Python开发一款文字版随机事件游戏,通过这个项目,读者不仅能够... 目录项目概述2.1 游戏概念2.2 游戏特色2.3 目标玩家群体技术选择与环境准备3.1 开发环境3

Python中模块graphviz使用入门

《Python中模块graphviz使用入门》graphviz是一个用于创建和操作图形的Python库,本文主要介绍了Python中模块graphviz使用入门,具有一定的参考价值,感兴趣的可以了解一... 目录1.安装2. 基本用法2.1 输出图像格式2.2 图像style设置2.3 属性2.4 子图和聚

windows和Linux使用命令行计算文件的MD5值

《windows和Linux使用命令行计算文件的MD5值》在Windows和Linux系统中,您可以使用命令行(终端或命令提示符)来计算文件的MD5值,文章介绍了在Windows和Linux/macO... 目录在Windows上:在linux或MACOS上:总结在Windows上:可以使用certuti

CentOS和Ubuntu系统使用shell脚本创建用户和设置密码

《CentOS和Ubuntu系统使用shell脚本创建用户和设置密码》在Linux系统中,你可以使用useradd命令来创建新用户,使用echo和chpasswd命令来设置密码,本文写了一个shell... 在linux系统中,你可以使用useradd命令来创建新用户,使用echo和chpasswd命令来设

Python使用Matplotlib绘制3D曲面图详解

《Python使用Matplotlib绘制3D曲面图详解》:本文主要介绍Python使用Matplotlib绘制3D曲面图,在Python中,使用Matplotlib库绘制3D曲面图可以通过mpl... 目录准备工作绘制简单的 3D 曲面图绘制 3D 曲面图添加线框和透明度控制图形视角Matplotlib

Pandas中统计汇总可视化函数plot()的使用

《Pandas中统计汇总可视化函数plot()的使用》Pandas提供了许多强大的数据处理和分析功能,其中plot()函数就是其可视化功能的一个重要组成部分,本文主要介绍了Pandas中统计汇总可视化... 目录一、plot()函数简介二、plot()函数的基本用法三、plot()函数的参数详解四、使用pl

一文教你Python如何快速精准抓取网页数据

《一文教你Python如何快速精准抓取网页数据》这篇文章主要为大家详细介绍了如何利用Python实现快速精准抓取网页数据,文中的示例代码简洁易懂,具有一定的借鉴价值,有需要的小伙伴可以了解下... 目录1. 准备工作2. 基础爬虫实现3. 高级功能扩展3.1 抓取文章详情3.2 保存数据到文件4. 完整示例

使用Python实现IP地址和端口状态检测与监控

《使用Python实现IP地址和端口状态检测与监控》在网络运维和服务器管理中,IP地址和端口的可用性监控是保障业务连续性的基础需求,本文将带你用Python从零打造一个高可用IP监控系统,感兴趣的小伙... 目录概述:为什么需要IP监控系统使用步骤说明1. 环境准备2. 系统部署3. 核心功能配置系统效果展

基于Python打造一个智能单词管理神器

《基于Python打造一个智能单词管理神器》这篇文章主要为大家详细介绍了如何使用Python打造一个智能单词管理神器,从查询到导出的一站式解决,感兴趣的小伙伴可以跟随小编一起学习一下... 目录1. 项目概述:为什么需要这个工具2. 环境搭建与快速入门2.1 环境要求2.2 首次运行配置3. 核心功能使用指