基于Python的马蜂窝PC端爬取评论文本(Scrapy+Selenium)(一)

2023-10-14 01:40

本文主要是介绍基于Python的马蜂窝PC端爬取评论文本(Scrapy+Selenium)(一),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

       研究爬虫的时候用马蜂窝网页端的数据进行实验。操作包括翻页、点击等操作。爬取到的数据放到json文件中,如果想要存入数据库或者excel文件的的,把存取部分的代码改一下即可,爬取部分的代码一样。可能有些地方不足,敬请斧正。

      项目开始之前确保已经安装了scrapy库及selenium库

1.创建爬虫项目。

  • cmd命令行输入: scrapy startproject 项目名。我的项目名称是scrap_mfw,所以我的命令就是scrapy startproject scrap_mfw,项目名自己定。如下图,成功创建项目。

  • 命令行输入cd scrap_mfw/spiders 进入爬虫目录
  • 命令行输入:scrapy genspider mfw_test www.mafengwo.cn【mfw_test为爬虫名称,编写xpath和正则表达式的地方,www.mafengwo.cn为允许的域名】
  • 完成之后,就可以在pycharm打开创建的scrap_mfw项目。

 2.文件介绍

目录结构如下:

       爬虫的代码在mfw_test.py里面写。run.py文件是自己建的,以后右击运行run.py就可以开始爬虫了,不用在cmd窗口敲命令行。run.py文件里面写以下代码:

cmdline.execute("scrapy crawl mfw_test".split())

mfw_test是爬虫名字。

settings.py是对爬虫的配置。用户代理请求头(USER_AGENT)伪装一下。

USER_AGENT = 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.150 Safari/537.36 Edg/88.0.705.68'
DOWNLOAD_DELAY = 3  # 下载延时
ROBOTSTXT_OBEY = False  # 可以忽略或者不遵守robots协议
FEED_EXPORT_ENCODING = "gbk"   #解决保存CSV文件乱码
# 激活自定义的下载器中间件组件
DOWNLOADER_MIDDLEWARES = {'scrap_mfw.middlewares.ScrapMfwDownloaderMiddleware': 543,
}
DEFAULT_REQUEST_HEADERS = {'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8','Accept-Language': 'en',
}
CONCURRENT_REQUEST = 32  # 默认16个并行
LOG_LEVEL='ERROR' #只有程序出现错误的情况下,才显示日志文件
pipelines.py文件所写代码如下
class ScrapMfwPipeline:def __init__(self):self.f = open("bytedance.json", "w", encoding='utf-8')def process_item(self, item, spider):content = json.dumps(dict(item), ensure_ascii=False) + '\n'self.f.write(content)return itemdef close_spider(self, spider):self.f.close()

在mfw_test.py里面的Spider类里面写:

    def start_requests(self):# 想通过控制offset来决定是否翻页offset = 1url = "".join(self.start_urls)yield Request(url=url, callback=self.parse, meta={'offset': offset}, dont_filter=True)  # 在这去中间件# 返回request的时候需要把dont_filter=True加上,不然scrapy会自动过滤掉已经请求过的网页。def parse(self, response):# 在这里先跳到第一个景点self.page = 1   # 控制评论翻页self.num = 0    # 控制跳转下一个景点# 拿到每个景点urlweb_urls = response.xpath('//*[@id="container"]/div[5]/div/div[@class="bd"]/ul/li/a/@href').extract()  # print(web_urls) 是一个列表self.urls = []  # 景点链接# 每个景点加入for web_url in web_urls:web_url = "https://www.mafengwo.cn" + str(web_url).strip("'")  # 拿到连接self.urls.append(web_url)print(self.urls)yield scrapy.Request(self.urls[0], callback=self.parse_reviews,meta={'offset': 1, 'url': web_url, 'page': self.page, 'list': self.urls, 'num': self.num},dont_filter=True)def parse_reviews(self, response):self.page += 1  # 控制翻页p = response.xpath('//*[@class="m-pagination"]/span[@class="count"]/span[1]/text()').extract()p = str(p).strip('[').strip(']').strip("'")p = int(p) + 1  # 评论页数# 抓取评论url = response.meta.get('url')item = ScrapMfwItem()# 景点名称item['Title'] = response.xpath('//*[@class="row row-top"]/div/div[3]/h1/text()').extract()# 景点评论# 在这里先测试前五页 ,要修改的地方string = ""reviews = response.xpath('//*[@class="container"]/div[@id="commentlist"]/div/div/div[4]/div/ul/li')for review in reviews:string = string + str(review.xpath('.//p/text()').extract()).strip("\xa0").strip(" ").strip('\n')item['Reviews'] = string  # 拿到了拿到了# 回调自己if self.page < p:   # 控制只5页,这样就不会抛出异常了yield scrapy.Request(url, callback=self.parse_reviews,meta={'offset': 2, 'url': url, 'page': self.page}, dont_filter=True)if self.page == p and self.num < 14:  # 如果已经翻够5页,跳到下一个景点self.page = 1           # 重置页数self.num = self.num + 1next_step = self.urls[self.num].strip("'")yield scrapy.Request(next_step, callback=self.parse_reviews,meta={'offset': 1, 'url': next_step, 'page': self.page}, dont_filter=True)yield item

middlewares.py文件在DownloaderMiddleware类下面添加:

 def __init__(self):# 实例化对象option = ChromeOptions()# 不加载图片# 因为只需要爬取文本文件,所以不加载图片,这样不用等图片的响应效率更快。prefs = {'profile.managed_default_content_settings.images': 2}option.add_experimental_option('prefs', prefs)option.add_experimental_option('excludeSwitches', ['enable-automation'])  # 开启实验性功能# 去除特征值option.add_argument("--disable-blink-features=AutomationControlled")# 以上是新添加的!加上去之后状态代码就不是521了!就不反爬虫了!self.driver = webdriver.Chrome(options=option)self.driver.maximize_window()self.wait = WebDriverWait(self.driver, 10)def process_request(self, request, spider):# 想如果offset是1的话,就正常返回,如果是2的话,就执行点击下一页操作offset = request.meta.get('offset', 1)  # 会随着mfw_test.py变化if offset == 1:self.driver.get(request.url)    # 在这里模拟浏览器的网址栏有响应time.sleep(2)   # 给他一点加载时间不然521return scrapy.http.HtmlResponse(url=request.url, body=self.driver.page_source.encode('utf-8'),encoding='utf-8', request=request,status=200)  # Called for each request that goes through the downloader# return给调用的函数if offset == 2:url = request.meta.get('url')time.sleep(3)self.driver.find_element(By.XPATH, './/*[@class="pi pg-next"]').click()return scrapy.http.HtmlResponse(url, body=self.driver.page_source.encode('utf-8'),encoding='utf-8', request=request,status=200)  # Called for each request that goes through the downloaderdef process_response(self, request, response, spider):return response

 但是我的爬虫只能爬出来4页的东西,虽然每一页都点到了。

 

这篇关于基于Python的马蜂窝PC端爬取评论文本(Scrapy+Selenium)(一)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!


原文地址:https://blog.csdn.net/JoeySnow/article/details/130682605
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.chinasem.cn/article/207253

相关文章

利用Python实现Excel文件智能合并工具

《利用Python实现Excel文件智能合并工具》有时候,我们需要将多个Excel文件按照特定顺序合并成一个文件,这样可以更方便地进行后续的数据处理和分析,下面我们看看如何使用Python实现Exce... 目录运行结果为什么需要这个工具技术实现工具的核心功能代码解析使用示例工具优化与扩展有时候,我们需要将

Python+PyQt5实现文件夹结构映射工具

《Python+PyQt5实现文件夹结构映射工具》在日常工作中,我们经常需要对文件夹结构进行复制和备份,本文将带来一款基于PyQt5开发的文件夹结构映射工具,感兴趣的小伙伴可以跟随小编一起学习一下... 目录概述功能亮点展示效果软件使用步骤代码解析1. 主窗口设计(FolderCopyApp)2. 拖拽路径

Python使用Reflex构建现代Web应用的完全指南

《Python使用Reflex构建现代Web应用的完全指南》这篇文章为大家深入介绍了Reflex框架的设计理念,技术特性,项目结构,核心API,实际开发流程以及与其他框架的对比和部署建议,感兴趣的小伙... 目录什么是 ReFlex?为什么选择 Reflex?安装与环境配置构建你的第一个应用核心概念解析组件

Python将字符串转换为小写字母的几种常用方法

《Python将字符串转换为小写字母的几种常用方法》:本文主要介绍Python中将字符串大写字母转小写的四种方法:lower()方法简洁高效,手动ASCII转换灵活可控,str.translate... 目录一、使用内置方法 lower()(最简单)二、手动遍历 + ASCII 码转换三、使用 str.tr

Python处理超大规模数据的4大方法详解

《Python处理超大规模数据的4大方法详解》在数据的奇妙世界里,数据量就像滚雪球一样,越变越大,从最初的GB级别的小数据堆,逐渐演变成TB级别的数据大山,所以本文我们就来看看Python处理... 目录1. Mars:数据处理界的 “变形金刚”2. Dask:分布式计算的 “指挥家”3. CuPy:GPU

Python多进程、多线程、协程典型示例解析(最新推荐)

《Python多进程、多线程、协程典型示例解析(最新推荐)》:本文主要介绍Python多进程、多线程、协程典型示例解析(最新推荐),本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定... 目录一、multiprocessing(多进程)1. 模块简介2. 案例详解:并行计算平方和3. 实现逻

Python对PDF书签进行添加,修改提取和删除操作

《Python对PDF书签进行添加,修改提取和删除操作》PDF书签是PDF文件中的导航工具,通常包含一个标题和一个跳转位置,本教程将详细介绍如何使用Python对PDF文件中的书签进行操作... 目录简介使用工具python 向 PDF 添加书签添加书签添加嵌套书签Python 修改 PDF 书签Pytho

利用Python实现可回滚方案的示例代码

《利用Python实现可回滚方案的示例代码》很多项目翻车不是因为不会做,而是走错了方向却没法回头,技术选型失败的风险我们都清楚,但真正能提前规划“回滚方案”的人不多,本文从实际项目出发,教你如何用Py... 目录描述题解答案(核心思路)题解代码分析第一步:抽象缓存接口第二步:实现两个版本第三步:根据 Fea

Python中CSV文件处理全攻略

《Python中CSV文件处理全攻略》在数据处理和存储领域,CSV格式凭借其简单高效的特性,成为了电子表格和数据库中常用的文件格式,Python的csv模块为操作CSV文件提供了强大的支持,本文将深入... 目录一、CSV 格式简介二、csv模块核心内容(一)模块函数(二)模块类(三)模块常量(四)模块异常

Python报错ModuleNotFoundError的10种解决方案

《Python报错ModuleNotFoundError的10种解决方案》在Python开发中,ModuleNotFoundError是最常见的运行时错误之一,通常由模块路径配置错误、依赖缺失或命名冲... 目录一、常见错误场景与原因分析二、10种解决方案与代码示例1. 检查并安装缺失模块2. 动态添加模块