使用scrapy框架采集企业黄页数据

2024-01-01 06:32

本文主要是介绍使用scrapy框架采集企业黄页数据,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

今天闲着无聊,好就没用scrapy框架写爬虫了,于是就写了一个企业黄页的爬虫脚本,采集顺企网黄页数据,保存到mongodb,话不多说,简单看下代码吧。

下面部分是spider代码(习惯使用beautifulsoup了QAQ)

import scrapy
from bs4 import BeautifulSoup
from shunqi.items import ShunqiItem
import reclass EpregSpider(scrapy.Spider):name = 'epreg'allowed_domains = ['11467.com']start_url = "http://b2b.11467.com/"def start_requests(self):yield scrapy.Request(url=self.start_url,callback=self.get_city)def get_city(self,response):soup = BeautifulSoup(response.text,"lxml")dl_listtxt = soup.find(text="按城市浏览全国公司黄页").findNext("div").find_all("dl",attrs={"class":"listtxt"})for dl in dl_listtxt:province = dl.find("dt").text.strip()dd_list = dl.find_all("dd")for dd in dd_list:city = dd.text.strip()city_link = "https:" + dd.find("a")["href"]yield scrapy.Request(url=city_link,callback=self.get_class,meta={"city":city,"province":province})def get_class(self,response):city = response.meta["city"]province = response.meta["province"]soup = BeautifulSoup(response.text,"lxml")class_all = soup.find(text=re.compile("公司分类")).findNext("ul").find_all("li")for li in class_all:dd_all = li.find("dl").find_all("dd")for dd in dd_all:cor_link = "https:" + dd.find("a")["href"]yield scrapy.Request(url=cor_link,callback=self.get_cor,meta={"city":city,"province":province})def get_cor(self,response):city = response.meta["city"]province = response.meta["province"]soup = BeautifulSoup(response.text,"lxml")company_list = soup.find("ul",attrs={"class":"companylist"})if company_list:company_list1 = company_list.find_all("div",attrs={"class","f_l"})for li in company_list1:whole_url = "https:" + li.find("h4").findNext("a")["href"]if "qiye" in whole_url:whole_url = whole_url + "#contact"else:whole_url = "https:" + li.find("h4").findNext("a")["href"]yield scrapy.Request(url=whole_url,callback=self.get_info,meta={"url":whole_url,"city":city,"province":province})is_pages = soup.find("div",attrs={"class","pages"})if is_pages:max_page = is_pages.find(text="尾页").findParent("a")["href"].split("-")[1].replace(".htm")page_href = is_pages.find(text="尾页").findParent("a")["href"]for page in range(2,int(max_page)+1):page_url = page_href.split("-")[0] + "-" + str(page) + ".htm"yield scrapy.Request(url=page_url,callback=self.get_cor,meta={"city":city,"province":province})def deal_item(self,soup,text,label):try:data = soup.find(text=re.compile("%s" % text)).findNext("%s" % label).text.strip().replace("\r\n","")except:data = Nonereturn datadef get_info(self,response):item = ShunqiItem()whole_url = response.meta["url"]if "qiye" in whole_url:id = re.search("qiye\/(\d+)\.htm",whole_url,re.S).group(1)else:id = re.search("co\/(\d+)\.htm",whole_url,re.S).group(1)city= response.meta["city"]province = response.meta["province"]soup = BeautifulSoup(response.text,"lxml")adress = self.deal_item(soup,"公司地址:","dd")phone = self.deal_item(soup,"固定电话:","dd")manager = self.deal_item(soup,"经理:","dd")if self.deal_item(soup,"手机号码:","dd") == None:link_phone = self.deal_item(soup,"经理手机:","dd")else:link_phone= self.deal_item(soup,"手机号码:","dd")email = self.deal_item(soup,"电子邮件:","dd")cor_name = self.deal_item(soup,"法人名称:","td")business = self.deal_item(soup,"经营范围:","td")main_product = self.deal_item(soup,"主要经营产品:","td")for field in item.fields:item[field] = eval(field)yield item

下面是采集到一些数据的截图
在这里插入图片描述
以上就是基本的一些代码,本文章只是提供一些采集思路,有兴趣的可以自己写一下,不是很复杂。同时欢迎访问个人博客主页… …

这篇关于使用scrapy框架采集企业黄页数据的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/558399

相关文章

Python使用Tenacity一行代码实现自动重试详解

《Python使用Tenacity一行代码实现自动重试详解》tenacity是一个专为Python设计的通用重试库,它的核心理念就是用简单、清晰的方式,为任何可能失败的操作添加重试能力,下面我们就来看... 目录一切始于一个简单的 API 调用Tenacity 入门:一行代码实现优雅重试精细控制:让重试按我

MySQL中EXISTS与IN用法使用与对比分析

《MySQL中EXISTS与IN用法使用与对比分析》在MySQL中,EXISTS和IN都用于子查询中根据另一个查询的结果来过滤主查询的记录,本文将基于工作原理、效率和应用场景进行全面对比... 目录一、基本用法详解1. IN 运算符2. EXISTS 运算符二、EXISTS 与 IN 的选择策略三、性能对比

SpringBoot多环境配置数据读取方式

《SpringBoot多环境配置数据读取方式》SpringBoot通过环境隔离机制,支持properties/yaml/yml多格式配置,结合@Value、Environment和@Configura... 目录一、多环境配置的核心思路二、3种配置文件格式详解2.1 properties格式(传统格式)1.

使用Python构建智能BAT文件生成器的完美解决方案

《使用Python构建智能BAT文件生成器的完美解决方案》这篇文章主要为大家详细介绍了如何使用wxPython构建一个智能的BAT文件生成器,它不仅能够为Python脚本生成启动脚本,还提供了完整的文... 目录引言运行效果图项目背景与需求分析核心需求技术选型核心功能实现1. 数据库设计2. 界面布局设计3

使用IDEA部署Docker应用指南分享

《使用IDEA部署Docker应用指南分享》本文介绍了使用IDEA部署Docker应用的四步流程:创建Dockerfile、配置IDEADocker连接、设置运行调试环境、构建运行镜像,并强调需准备本... 目录一、创建 dockerfile 配置文件二、配置 IDEA 的 Docker 连接三、配置 Do

解决pandas无法读取csv文件数据的问题

《解决pandas无法读取csv文件数据的问题》本文讲述作者用Pandas读取CSV文件时因参数设置不当导致数据错位,通过调整delimiter和on_bad_lines参数最终解决问题,并强调正确参... 目录一、前言二、问题复现1. 问题2. 通过 on_bad_lines=‘warn’ 跳过异常数据3

Android Paging 分页加载库使用实践

《AndroidPaging分页加载库使用实践》AndroidPaging库是Jetpack组件的一部分,它提供了一套完整的解决方案来处理大型数据集的分页加载,本文将深入探讨Paging库... 目录前言一、Paging 库概述二、Paging 3 核心组件1. PagingSource2. Pager3.

python使用try函数详解

《python使用try函数详解》Pythontry语句用于异常处理,支持捕获特定/多种异常、else/final子句确保资源释放,结合with语句自动清理,可自定义异常及嵌套结构,灵活应对错误场景... 目录try 函数的基本语法捕获特定异常捕获多个异常使用 else 子句使用 finally 子句捕获所

C++11右值引用与Lambda表达式的使用

《C++11右值引用与Lambda表达式的使用》C++11引入右值引用,实现移动语义提升性能,支持资源转移与完美转发;同时引入Lambda表达式,简化匿名函数定义,通过捕获列表和参数列表灵活处理变量... 目录C++11新特性右值引用和移动语义左值 / 右值常见的左值和右值移动语义移动构造函数移动复制运算符

Python对接支付宝支付之使用AliPay实现的详细操作指南

《Python对接支付宝支付之使用AliPay实现的详细操作指南》支付宝没有提供PythonSDK,但是强大的github就有提供python-alipay-sdk,封装里很多复杂操作,使用这个我们就... 目录一、引言二、准备工作2.1 支付宝开放平台入驻与应用创建2.2 密钥生成与配置2.3 安装ali