广西互联网金融平台系列-Scrapy结合Selenium爬虫爬取宝筹贷数据

本文主要是介绍广西互联网金融平台系列-Scrapy结合Selenium爬虫爬取宝筹贷数据,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

2019独角兽企业重金招聘Python工程师标准>>> hot3.png

一、背景

在平常爬取过程中会遇到很多结构不同和渲染方式不同的网站,比如这次的宝筹贷,它的列表页渲染方式和详情页的渲染方式是不一致的,详情页和投资记录的数据渲染方式则一致。遇到这样的数据,通常的应对方法有两种:

1.scrapy直接请求接口地址即可,模拟登录或者甚至不用登录,像爬取乐助贷、够力金融、汇泰在线这些平台一样,直接从接口拿数据就行了。

2.scrapy结合selenium进行爬取,这个就有意思了。

二、目的

通过工具的结合,对平台的数据进行抓取,只写逻辑,具体详细的入库操作就不仔细记录了。

三、条件

1.列表页渲染方式是html/css

2.详情页和投资记录页是通过Ajax和api进行通信的

3.投资记录的接口请求跟够力金融的类似,都是需要接口翻页(我就不重复写了)

四、工具

1.scrapy爬虫框架

2.selenium自动化测试工具

五、示例

代码逻辑:

1.在middleware里面将scrapy和selenium进行结合

2.在spider中重载方法,做到开启爬虫时自动调用浏览器,在爬虫退出后自动关闭浏览器

3.到列表页进行url的抽取,交给parse_detail进行详细的爬取

4.parse_detail进行详细数据爬取,并且交给item进行序列化

以下是spider里面的代码:


class BaochouSpider(scrapy.Spider):name = 'baochou'allowed_domains = ['www.baochoudai.com']start_urls = ['https://www.baochoudai.com/index.php?g=Borrow&m=Public&a=lists&t=1']def __init__(self):"""通过chrome请求动态网页当爬虫关闭的时候  自动关闭浏览器窗口"""# 设置chromediver不加载图片chrome_opt = webdriver.ChromeOptions()  # 初始化配置ChromeOptionsprefs = {"profile.managed_default_content_settings.images": 2}  # 开关  这是固定写法chrome_opt.add_experimental_option("prefs", prefs)  # 配置进来self.browser = webdriver.Chrome(executable_path="E:/SpiderTools/chromedriver.exe",chrome_options=chrome_opt)super(BaochouSpider, self).__init__()# 当收到spider_closed信号的时候,调用下面的spider_colosed方法来关闭浏览器dispatcher.connect(self.spider_closed, signals.spider_closed)def spider_closed(self, spider):# 当爬虫退出的时候关闭chromeself.browser.quit()def parse(self, response):"""将当前列表页的每条标的链接拿到并传给detail进行深入爬取已知页码可以在url中循环  就不用翻页了"""total = response.css('h4.inline-block.mb15.fs22 a')for x in total:target_urls = x.css('::attr(href)').extract_first("")yield Request(url=parse.urljoin(response.url,target_urls),callback=self.parse_detail)for i in range(1,22):next_pages = "https://www.baochoudai.com/index.php?g=Borrow&m=Public&a=lists&t=1&page=%s" %(i)yield Request(url=next_pages,callback=self.parse)def parse_detail(self, response):loaders = BaochouItemLoader(item=BaochouItem(),response=response)loaders.add_css("title", ".inline-block.pr20 span::text")loaders.add_css("protype", ".inline-block.pr20 span::text")loaders.add_css("amount", ".fl.w280.pt15 span.fs46.lh1::text")loaders.add_css("profit", ".fl.w220.pt15 span.fs46.lh1::text")loaders.add_css("terms", "div.pl30:nth-child(3) div:first-child span:first-child::text")loaders.add_value("target_urls", response.url)loaders.add_value("target_urls_id", response.url)iloaders_item = loaders.load_item()yield iloaders_item

middleware里面结合selenium的代码就不记录了。

六、总结

全程通过浏览器进行自动化爬取,写完代码运行即可

由于调用浏览器比较费时费力,所以在调用的时候禁止浏览器加载图片,速度加快一倍

其实这种加载浏览器的方式速度会变慢,实在不得已而为止的情况下再考虑用(比如某些网站限制爬虫访问,那么就要用到这种方式)

相对于直接请求接口api,这种方式得到的数据并没有那么齐全,如果是请求api也是可以拿到Userid的,对用户行为、偏好、投资能力等进行分析和推算。比如宝筹贷这个平台的投资人属性有以下几种:

1.很多投资人都是只投100元

2.投资终端最多的就是微信

3.可以根据api中投资人的手机号码计算投资人归属地

4.得到完整数据后计算投资总额top10/投资次数Top10

5.投资人单笔投资金额普遍是1000以内,超过1000的不多

七、部分数据展示

以下是宝筹贷的部分数据展示 包括(id 标题、金额、收益率、期限、对应地址、唯一id、来源、类型)等

'2131', '2017101703保汇贷03号', '500000', '10', '4.0', NULL, NULL, 'https://www.baochoudai.com/index.php?g=Borrow&m=Public&a=show&borrow_nid=20171000003', '4b5f66f1445bcb6558515a85d5ba2c50', NULL, '宝筹贷', '14''2132', '2017101102保汇贷02号', '600000', '9.8', '3.0', NULL, NULL, 'https://www.baochoudai.com/index.php?g=Borrow&m=Public&a=show&borrow_nid=20171000002', '4efd8370abcd9622df51c9f6a9fa674f', NULL, '宝筹贷', '14''2133', '20150731房产抵押借款项目第03号', '900000', '15', '1.0', NULL, NULL, 'https://www.baochoudai.com/index.php?g=Borrow&m=Public&a=show&borrow_nid=20150700022', '700acd1785848a3072b484c0710251e0', NULL, '宝筹贷', '2''2134', '20150728房产抵押借款项目第01-22号', '20000', '18', '0.3333333333333333', NULL, NULL, 'https://www.baochoudai.com/index.php?g=Borrow&m=Public&a=show&borrow_nid=20150700020', '3a2b77053c9518f02b579cff977e2e6e', NULL, '宝筹贷', '2''2135', '20150812房产抵押04-1号', '20000', '20', '0.5', NULL, NULL, 'https://www.baochoudai.com/index.php?g=Borrow&m=Public&a=show&borrow_nid=20150800002', '3306ed018df098febcf08b55bd9a21f1', NULL, '宝筹贷', '2''2136', '20150807银行过桥项目第01号', '380000', '15', '0.3333333333333333', NULL, NULL, 'https://www.baochoudai.com/index.php?g=Borrow&m=Public&a=show&borrow_nid=20150800001', '821d818039a38a0ec8f0c3e7b0fa9373', NULL, '宝筹贷', '14''2137', '20150818房产抵押04-2号', '20000', '20', '0.5', NULL, NULL, 'https://www.baochoudai.com/index.php?g=Borrow&m=Public&a=show&borrow_nid=20150800003', '32217f70fbb8af31a234e5d4dc12f46c', NULL, '宝筹贷', '2'

转载于:https://my.oschina.net/RanboSpider/blog/1605694

这篇关于广西互联网金融平台系列-Scrapy结合Selenium爬虫爬取宝筹贷数据的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/761398

相关文章

Linux下利用select实现串口数据读取过程

《Linux下利用select实现串口数据读取过程》文章介绍Linux中使用select、poll或epoll实现串口数据读取,通过I/O多路复用机制在数据到达时触发读取,避免持续轮询,示例代码展示设... 目录示例代码(使用select实现)代码解释总结在 linux 系统里,我们可以借助 select、

Python爬虫HTTPS使用requests,httpx,aiohttp实战中的证书异步等问题

《Python爬虫HTTPS使用requests,httpx,aiohttp实战中的证书异步等问题》在爬虫工程里,“HTTPS”是绕不开的话题,HTTPS为传输加密提供保护,同时也给爬虫带来证书校验、... 目录一、核心问题与优先级检查(先问三件事)二、基础示例:requests 与证书处理三、高并发选型:

C#使用iText获取PDF的trailer数据的代码示例

《C#使用iText获取PDF的trailer数据的代码示例》开发程序debug的时候,看到了PDF有个trailer数据,挺有意思,于是考虑用代码把它读出来,那么就用到我们常用的iText框架了,所... 目录引言iText 核心概念C# 代码示例步骤 1: 确保已安装 iText步骤 2: C# 代码程

Pandas处理缺失数据的方式汇总

《Pandas处理缺失数据的方式汇总》许多教程中的数据与现实世界中的数据有很大不同,现实世界中的数据很少是干净且同质的,本文我们将讨论处理缺失数据的一些常规注意事项,了解Pandas如何表示缺失数据,... 目录缺失数据约定的权衡Pandas 中的缺失数据None 作为哨兵值NaN:缺失的数值数据Panda

C++中处理文本数据char与string的终极对比指南

《C++中处理文本数据char与string的终极对比指南》在C++编程中char和string是两种用于处理字符数据的类型,但它们在使用方式和功能上有显著的不同,:本文主要介绍C++中处理文本数... 目录1. 基本定义与本质2. 内存管理3. 操作与功能4. 性能特点5. 使用场景6. 相互转换核心区别

python库pydantic数据验证和设置管理库的用途

《python库pydantic数据验证和设置管理库的用途》pydantic是一个用于数据验证和设置管理的Python库,它主要利用Python类型注解来定义数据模型的结构和验证规则,本文给大家介绍p... 目录主要特点和用途:Field数值验证参数总结pydantic 是一个让你能够 confidentl

JAVA实现亿级千万级数据顺序导出的示例代码

《JAVA实现亿级千万级数据顺序导出的示例代码》本文主要介绍了JAVA实现亿级千万级数据顺序导出的示例代码,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面... 前提:主要考虑控制内存占用空间,避免出现同时导出,导致主程序OOM问题。实现思路:A.启用线程池

SpringBoot分段处理List集合多线程批量插入数据方式

《SpringBoot分段处理List集合多线程批量插入数据方式》文章介绍如何处理大数据量List批量插入数据库的优化方案:通过拆分List并分配独立线程处理,结合Spring线程池与异步方法提升效率... 目录项目场景解决方案1.实体类2.Mapper3.spring容器注入线程池bejsan对象4.创建

PHP轻松处理千万行数据的方法详解

《PHP轻松处理千万行数据的方法详解》说到处理大数据集,PHP通常不是第一个想到的语言,但如果你曾经需要处理数百万行数据而不让服务器崩溃或内存耗尽,你就会知道PHP用对了工具有多强大,下面小编就... 目录问题的本质php 中的数据流处理:为什么必不可少生成器:内存高效的迭代方式流量控制:避免系统过载一次性

C#实现千万数据秒级导入的代码

《C#实现千万数据秒级导入的代码》在实际开发中excel导入很常见,现代社会中很容易遇到大数据处理业务,所以本文我就给大家分享一下千万数据秒级导入怎么实现,文中有详细的代码示例供大家参考,需要的朋友可... 目录前言一、数据存储二、处理逻辑优化前代码处理逻辑优化后的代码总结前言在实际开发中excel导入很