scrapy 使用Selenium与Scrapy处理动态加载网页内容的解决方法

本文主要是介绍scrapy 使用Selenium与Scrapy处理动态加载网页内容的解决方法,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

引言
在爬虫技术领域,处理动态加载的网页内容常常是一项挑战,尤其是对于那些通过用户滚动或其他交互动态加载更多内容的网站。本文将介绍如何结合使用Selenium和Scrapy来有效处理这类网页。

初探Selenium与Scrapy的结合
首先,我们探索如何使用Selenium在Scrapy中间件中处理动态加载内容的网页。关键在于模拟用户滚动行为,以加载并捕获所有内容。

# Define here the models for your spider middleware
#
# See documentation in:
# https://docs.scrapy.org/en/latest/topics/spider-middleware.htmlfrom scrapy import signals
from scrapy.http import HtmlResponse
from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.chrome.options import Options
from webdriver_manager.chrome import ChromeDriverManager
import random,time
from fake_useragent import UserAgent
# useful for handling different item types with a single interface
from itemadapter import is_item, ItemAdapter
from scrapy.utils.project import get_project_settingsclass SeleniumMiddleware:@classmethoddef from_crawler(cls, crawler):middleware = cls()crawler.signals.connect(middleware.spider_closed, signal=signals.spider_closed)return middlewaredef __init__(self):options = Options()# options.add_argument('--headless')  # 启用无头模式# options.add_argument('user-agent="Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/123.0.0.0 Safari/537.36')# 创建UserAgent对象# ua = UserAgent()# settings=get_project_settings() #获取settings配置,设置需要的信息# 生成随机User-Agent 没有用这里是因为这里有可能会产生手机端的访问方式# user_agent = ua.random# user_agent = random.choice(settings["USER_AGENTS"])user_agent = "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/123.0.0.0 Safari/537.36"# print("user_agent:",user_agent)options.add_argument('--disable-blink-features=AutomationControlled')#关闭自动控制blink特征options.add_argument(f"user-agent={user_agent}")options.add_experimental_option('excludeSwitches', ['enable-automation'])self.driver = webdriver.Chrome(options=options)def spider_closed(self, spider):self.driver.quit()def process_request(self, request, spider):self.driver.get(request.url)# 等待页面初步加载完成time.sleep(3)  # 示例等待时间,可能需要根据实际页面调整# 找到以游客模式进入的按钮try:element = self.driver.find_element(By.ID,"loginContainer")child_element = self.driver.find_elements(By.CLASS_NAME,'css-txolmk-DivGuestModeContainer')child_element[0].click()except Exception as e:print("以游客模式进入的按钮没有找到")time.sleep(3)try:flush_element = self.driver.find_elements(By.CLASS_NAME,'css-z9i4la-Button-StyledButton')flush_element[0].click()except Exception as e:print("刷新按钮没有找到")time.sleep(6)xunhuan = Truetemp_height = 0while xunhuan:self.driver.execute_script("window.scrollTo(0, document.body.scrollHeight);")time.sleep(2)# 获取当前滚动条距离顶部的距离check_height = self.driver.execute_script("return document.documentElement.scrollTop || window.pageYOffset || document.body.scrollTop;")if check_height == temp_height:print("到底了")xunhuan = Falseelse:temp_height = check_heightbody = self.driver.page_source.encode('utf-8')return HtmlResponse(self.driver.current_url, body=body, encoding='utf-8', request=request)

完整的Scrapy爬虫实例
下面是一个使用Selenium和Scrapy爬取网易新闻的示例。

import scrapy,json,html,base64
import datetime,hashlib
from tiktokSelenium.items import TiktokseleniumItemclass TiktokSpider(scrapy.Spider):name = "tiktok"# allowed_domains = ["httpbin.org"]# start_urls = ["https://httpbin.org/user-agent"]allowed_domains = ["tiktok.com"]start_urls = ["https://www.tiktok.com/@espn"]def __init__(self):# settings=get_project_settings() #获取settings配置,设置需要的信息# self.tik_accounts = settings['TIK_ACCOUNTS']# 获取今天的爬取# self.fenrundate = time.strftime("%Y%m%d")# 获取今天的爬取self.fenrundate = self.get_yesterday_day()def parse(self, response):print("==================response.text=======================")# print(response.text)print(len(response.xpath('//div[@class="css-x6y88p-DivItemContainerV2 e19c29qe8"]')))author_url = response.urlauthor_name = author_url.split("@")[-1]for sel in response.xpath('//div[@class="css-x6y88p-DivItemContainerV2 e19c29qe8"]'):link = sel.xpath('div/div/div/a')[0]# 获取视频的链接地址href = sel.xpath('div/div/div/a/@href').extract_first()# 视频idvid = href.split("/")[-1]vclick = link.xpath('div/div/strong[@class="video-count css-dirst9-StrongVideoCount e148ts222"]/text()').extract_first()# vclick = videoCount[0].texttitle = html.escape(sel.xpath('div[2]/div/@aria-label').extract_first())# continueuqc_arr = [title,vclick]cvideo_item = TiktokseleniumItem()# cvideo_item = {}cvideo_item['author_url'] = author_urlcvideo_item['author_name'] = author_namecvideo_item['video_id'] = vidcvideo_item['video_url'] = hrefcvideo_item['video_title'] = titlecvideo_item['video_hits'] = vclickcvideo_item['date'] = self.fenrundatecvideo_item['video_real_hits'] = self.convert_to_real_hits(vclick)# print(cvideo_item)cvideo_item['unique_key'] = self.str_md5("_".join(uqc_arr))yield cvideo_item     # print(cvideo_item)# 获取昨天的日期 def get_yesterday_day(self):today = datetime.date.today()yesterday = today - datetime.timedelta(days=1)yesterday2 = str(yesterday)return yesterday2.replace("-","")# 点击量转化为数字def convert_to_real_hits(self,strs):lastItem = strs[-1]if lastItem in ['K','M','B','k','m','b']:strs = eval(strs[0:-1])if lastItem == 'K' or lastItem == 'k':strs = strs * 1000elif lastItem == 'M' or lastItem == 'm':strs = strs * 1000 * 1000else:strs = strs * 1000 * 1000 * 1000return int(strs)def str_md5(self,strs):m = hashlib.md5()bs = base64.b64encode(strs.encode("utf-8"))m.update(bs)str_md5 = m.hexdigest()return str_md5

这篇关于scrapy 使用Selenium与Scrapy处理动态加载网页内容的解决方法的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/976092

相关文章

Spring Boot整合Redis注解实现增删改查功能(Redis注解使用)

《SpringBoot整合Redis注解实现增删改查功能(Redis注解使用)》文章介绍了如何使用SpringBoot整合Redis注解实现增删改查功能,包括配置、实体类、Repository、Se... 目录配置Redis连接定义实体类创建Repository接口增删改查操作示例插入数据查询数据删除数据更

使用python生成固定格式序号的方法详解

《使用python生成固定格式序号的方法详解》这篇文章主要为大家详细介绍了如何使用python生成固定格式序号,文中的示例代码讲解详细,具有一定的借鉴价值,有需要的小伙伴可以参考一下... 目录生成结果验证完整生成代码扩展说明1. 保存到文本文件2. 转换为jsON格式3. 处理特殊序号格式(如带圈数字)4

Java使用Swing生成一个最大公约数计算器

《Java使用Swing生成一个最大公约数计算器》这篇文章主要为大家详细介绍了Java使用Swing生成一个最大公约数计算器的相关知识,文中的示例代码讲解详细,感兴趣的小伙伴可以了解一下... 目录第一步:利用欧几里得算法计算最大公约数欧几里得算法的证明情形 1:b=0情形 2:b>0完成相关代码第二步:加

Java中流式并行操作parallelStream的原理和使用方法

《Java中流式并行操作parallelStream的原理和使用方法》本文详细介绍了Java中的并行流(parallelStream)的原理、正确使用方法以及在实际业务中的应用案例,并指出在使用并行流... 目录Java中流式并行操作parallelStream0. 问题的产生1. 什么是parallelS

MySQL数据库双机热备的配置方法详解

《MySQL数据库双机热备的配置方法详解》在企业级应用中,数据库的高可用性和数据的安全性是至关重要的,MySQL作为最流行的开源关系型数据库管理系统之一,提供了多种方式来实现高可用性,其中双机热备(M... 目录1. 环境准备1.1 安装mysql1.2 配置MySQL1.2.1 主服务器配置1.2.2 从

Linux join命令的使用及说明

《Linuxjoin命令的使用及说明》`join`命令用于在Linux中按字段将两个文件进行连接,类似于SQL的JOIN,它需要两个文件按用于匹配的字段排序,并且第一个文件的换行符必须是LF,`jo... 目录一. 基本语法二. 数据准备三. 指定文件的连接key四.-a输出指定文件的所有行五.-o指定输出

Linux jq命令的使用解读

《Linuxjq命令的使用解读》jq是一个强大的命令行工具,用于处理JSON数据,它可以用来查看、过滤、修改、格式化JSON数据,通过使用各种选项和过滤器,可以实现复杂的JSON处理任务... 目录一. 简介二. 选项2.1.2.2-c2.3-r2.4-R三. 字段提取3.1 普通字段3.2 数组字段四.

Linux kill正在执行的后台任务 kill进程组使用详解

《Linuxkill正在执行的后台任务kill进程组使用详解》文章介绍了两个脚本的功能和区别,以及执行这些脚本时遇到的进程管理问题,通过查看进程树、使用`kill`命令和`lsof`命令,分析了子... 目录零. 用到的命令一. 待执行的脚本二. 执行含子进程的脚本,并kill2.1 进程查看2.2 遇到的

详解SpringBoot+Ehcache使用示例

《详解SpringBoot+Ehcache使用示例》本文介绍了SpringBoot中配置Ehcache、自定义get/set方式,并实际使用缓存的过程,文中通过示例代码介绍的非常详细,对大家的学习或者... 目录摘要概念内存与磁盘持久化存储:配置灵活性:编码示例引入依赖:配置ehcache.XML文件:配置

Java 虚拟线程的创建与使用深度解析

《Java虚拟线程的创建与使用深度解析》虚拟线程是Java19中以预览特性形式引入,Java21起正式发布的轻量级线程,本文给大家介绍Java虚拟线程的创建与使用,感兴趣的朋友一起看看吧... 目录一、虚拟线程简介1.1 什么是虚拟线程?1.2 为什么需要虚拟线程?二、虚拟线程与平台线程对比代码对比示例:三