浅谈Python爬虫(十)【企查查爬虫无需登录】

2023-10-22 19:40

本文主要是介绍浅谈Python爬虫(十)【企查查爬虫无需登录】,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

想起来有次面试的时候,面试官让我爬企查查,当时一脸懵。。。今天正好有时间,索性看一下。

进入企查查,不登录,可以搜索到结果,但是只能看到前5个。。。凑合着也行吧
直接怼一下试试。。。

import requestsheaders = {'user-agent': 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.93 Safari/537.36'}
url = 'https://www.qcc.com/web/search?key=腾讯'
response = requests.get(url, headers=headers)
response.encoding = response.apparent_encoding
print(response.text)
print(response)

返回值是200,但是内容是报错。
在这里插入图片描述
在浏览器新开一个无痕页面(Chrome Ctrl+Shift+N),然后把链接复制进去。看一下具体请求。
在这里插入图片描述
发现有一个set-cookie。把这个参数当成cookie放进请求头再请求一下试试看。

import requestsheaders = {'user-agent': 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.93 Safari/537.36','cookie': 'acw_tc=7ceef52516207237911506404e7bf007f5a106d051edd92806324a8915'
}
url = 'https://www.qcc.com/web/search?key=腾讯'
response = requests.get(url, headers=headers)
response.encoding = response.apparent_encoding
print(response.text)
print(response)

果然可以了。
接下来就是需要找这个值的存放位置了。
找了一下第一次报错返回的源码,发现没有。。。
这时候,突然发现第一次返回的源码是405.html这个文件的内容。那么。。。。这个小可爱重定向了???
换代码试一下

import requestsheaders = {'user-agent': 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.93 Safari/537.36'}
url = 'https://www.qcc.com/web/search?key=腾讯'
response = requests.get(url, headers=headers, allow_redirects=False)
response.encoding = response.apparent_encoding
print(response.text)

然后看一下这个返回值,果然有一个类似cookie 的
在这里插入图片描述
虽然不是完全一样,但是这个好像是cookie前面的一部分。
emmm,不管了直接复制进去试一下

import requestsheaders = {'user-agent': 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.93 Safari/537.36','cookie': 'acw_tc=7ceef51716207240819688967e'
}
url = 'https://www.qcc.com/web/search?key=腾讯'
response = requests.get(url, headers=headers)
response.encoding = response.apparent_encoding
print(response.text)

发现也是可以的啊哈哈哈

所以具体流程就是,先请求一次任意搜索页面,获取到cookie(注意要加上禁止重定向的参数 allow_redirects=False)。然后就可以快乐的抓取了。
剩下就是解析内容页,没有啥技术难度了。
不多BB,直接上代码

#!/usr/bin/env python
# -*- encoding: utf-8 -*-
# @File    :   qcc.py    
# @Author  :   Monkey
# @DATE    :   2021/5/11 下午5:13 import requests
import re
from lxml import etreeclass QCC(object):"""企查查爬虫"""def __init__(self):self._headers = {'user-agent': 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.93 Safari/537.36',}def get_cookie(self):"""发起一次测试请求,获取到搜索的cookie"""url = 'https://www.qcc.com/web/search?key=测试'response = requests.get(url, headers=self._headers, allow_redirects=False)response.encoding = 'utf8'result = re.findall(r'div>您的请求ID是: <strong>\n(.*?)</strong></div>',  response.text)if result:return result[0]def search(self, search_keyword):"""搜索"""url = 'https://www.qcc.com/web/search?key={}'.format(search_keyword)headers = self._headersheaders['cookie'] = 'acw_tc={}'.format(self.get_cookie())response = requests.get(url, headers=headers)response.encoding = 'utf8'html = etree.HTML(response.text)com_url = html.xpath('//a[@class="title"]/@href')print('搜索到{}条结果。即将开始获取详细信息...'.format(len(com_url)))for url in com_url:self.get_com_info(url)def get_com_info(self, url):"""获取公司的详细信息"""response = requests.get(url, headers=self._headers)html = etree.HTML(response.text)info_elements = html.xpath('//table[@class="ntable"]/tr')item = {'url': url}flag = Truefor element in info_elements:if not flag:breakfor index in range(0, len(element.xpath('./td')), 2):try:key = element.xpath('./td[{}]/text()'.format(index+1))[0].strip()if key == '公司介绍:' or key == '经营范围':flag = Falseif key == '法定代表人':item[key] = element.xpath('./td[{}]//h2/text()'.format(index+2))[0].strip()else:item[key] = element.xpath('./td[{}]//text()'.format(index+2))[0].strip()except:passprint(item)def run(self):"""启动函数"""self.search(search_keyword='腾讯')if __name__ == '__main__':t = QCC()t.run()

有问题可以留言、私信
看到就回

这篇关于浅谈Python爬虫(十)【企查查爬虫无需登录】的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/263210

相关文章

基于Linux的ffmpeg python的关键帧抽取

《基于Linux的ffmpegpython的关键帧抽取》本文主要介绍了基于Linux的ffmpegpython的关键帧抽取,实现以按帧或时间间隔抽取关键帧,文中通过示例代码介绍的非常详细,对大家的学... 目录1.FFmpeg的环境配置1) 创建一个虚拟环境envjavascript2) ffmpeg-py

python使用库爬取m3u8文件的示例

《python使用库爬取m3u8文件的示例》本文主要介绍了python使用库爬取m3u8文件的示例,可以使用requests、m3u8、ffmpeg等库,实现获取、解析、下载视频片段并合并等步骤,具有... 目录一、准备工作二、获取m3u8文件内容三、解析m3u8文件四、下载视频片段五、合并视频片段六、错误

Python中提取文件名扩展名的多种方法实现

《Python中提取文件名扩展名的多种方法实现》在Python编程中,经常会遇到需要从文件名中提取扩展名的场景,Python提供了多种方法来实现这一功能,不同方法适用于不同的场景和需求,包括os.pa... 目录技术背景实现步骤方法一:使用os.path.splitext方法二:使用pathlib模块方法三

Python打印对象所有属性和值的方法小结

《Python打印对象所有属性和值的方法小结》在Python开发过程中,调试代码时经常需要查看对象的当前状态,也就是对象的所有属性和对应的值,然而,Python并没有像PHP的print_r那样直接提... 目录python中打印对象所有属性和值的方法实现步骤1. 使用vars()和pprint()2. 使

使用Python和OpenCV库实现实时颜色识别系统

《使用Python和OpenCV库实现实时颜色识别系统》:本文主要介绍使用Python和OpenCV库实现的实时颜色识别系统,这个系统能够通过摄像头捕捉视频流,并在视频中指定区域内识别主要颜色(红... 目录一、引言二、系统概述三、代码解析1. 导入库2. 颜色识别函数3. 主程序循环四、HSV色彩空间详解

一文深入详解Python的secrets模块

《一文深入详解Python的secrets模块》在构建涉及用户身份认证、权限管理、加密通信等系统时,开发者最不能忽视的一个问题就是“安全性”,Python在3.6版本中引入了专门面向安全用途的secr... 目录引言一、背景与动机:为什么需要 secrets 模块?二、secrets 模块的核心功能1. 基

python常见环境管理工具超全解析

《python常见环境管理工具超全解析》在Python开发中,管理多个项目及其依赖项通常是一个挑战,下面:本文主要介绍python常见环境管理工具的相关资料,文中通过代码介绍的非常详细,需要的朋友... 目录1. conda2. pip3. uvuv 工具自动创建和管理环境的特点4. setup.py5.

Python常用命令提示符使用方法详解

《Python常用命令提示符使用方法详解》在学习python的过程中,我们需要用到命令提示符(CMD)进行环境的配置,:本文主要介绍Python常用命令提示符使用方法的相关资料,文中通过代码介绍的... 目录一、python环境基础命令【Windows】1、检查Python是否安装2、 查看Python的安

Python UV安装、升级、卸载详细步骤记录

《PythonUV安装、升级、卸载详细步骤记录》:本文主要介绍PythonUV安装、升级、卸载的详细步骤,uv是Astral推出的下一代Python包与项目管理器,主打单一可执行文件、极致性能... 目录安装检查升级设置自动补全卸载UV 命令总结 官方文档详见:https://docs.astral.sh/

Python并行处理实战之如何使用ProcessPoolExecutor加速计算

《Python并行处理实战之如何使用ProcessPoolExecutor加速计算》Python提供了多种并行处理的方式,其中concurrent.futures模块的ProcessPoolExecu... 目录简介完整代码示例代码解释1. 导入必要的模块2. 定义处理函数3. 主函数4. 生成数字列表5.