Scrapy框架爬取智联招聘网站上海地区python工作第一页(90条)

本文主要是介绍Scrapy框架爬取智联招聘网站上海地区python工作第一页(90条),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1. 创建项目:

  CMD下  

      scrapy startproject zhilianJob

   然后 cd zhilianJob ,  创建爬虫文件 job.py: scrapy genspider job xxx.com

2. settings.py 中:

USER_AGENT = 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.181 Safari/537.36'
ROBOTSTXT_OBEY = False
ITEM_PIPELINES = {'zhilianJob.pipelines.ZhilianjobPipeline': 300,
}

 

3. 爬虫文件job.py中:

# -*- coding: utf-8 -*-
import scrapy
import json
from zhilianJob.items import ZhilianjobItemclass JobSpider(scrapy.Spider):name = 'job'# allowed_domains = ['www.sou.zhaopin.com']# start_urls可以简写成:https://fe-api.zhaopin.com/c/i/sou?pageSize=90&cityId=538&kw=python&kt=3start_urls = ['https://fe-api.zhaopin.com/c/i/sou?pageSize=90&cityId=538&salary=0,0&workExperience=-1&education=-1&companyType=-1&employmentType=-1&jobWelfareTag=-1&kw=python&kt=3&=0&_v=0.02964699&x-zp-page-request-id=3e524df5d2b541dcb5ddb82028a5c1b6-1565749700925-710042&x-zp-client-id=2724abb6-fb33-43a0-af2e-f177d8a3e169']def parse(self, response):# print(response.text)data = json.loads(response.text)job = data['data']['results']# print(job)try:for j in job:item = ZhilianjobItem()item['job_name'] = j['jobName']item['job_firm'] = j['company']['name']item['job_firmPeople'] = j['company']['size']['name']item['job_salary'] = j['salary']item['job_type'] = j['jobType']['items'][0]['name']item['job_yaoqiu'] = j['eduLevel']['name'] + ',' + j['workingExp']['name']item['job_welfare'] = ','.join(j['welfare'])yield itemexcept Exception as e:print(e)

 

4. items.py中:

  

# -*- coding: utf-8 -*-# Define here the models for your scraped items
#
# See documentation in:
# https://doc.scrapy.org/en/latest/topics/items.htmlimport scrapyclass ZhilianjobItem(scrapy.Item):# define the fields for your item here like:job_name = scrapy.Field()       #工作名称job_firm = scrapy.Field()       #公司名称job_firmPeople = scrapy.Field()       #公司人数job_type = scrapy.Field()       #工作类型job_salary = scrapy.Field()     #薪水job_yaoqiu = scrapy.Field()     #工作要求job_welfare = scrapy.Field()    #福利pass

5. 创建数据库,根据items中字段对应即可

6 . 管道文件pipelines.py:

import pymysql
class ZhilianjobPipeline(object):conn = Nonemycursor = Nonedef open_spider(self,spider):self.conn = pymysql.connect(host='172.16.25.37',port=3306,user='root',password='root',db='scrapy')# 获取游标self.mycursor = self.conn.cursor()print('正在清空之前的数据...')# 我只打算要第一页的数据,所以每次爬取都是最新的,要把数据库里的之前的数据要清空sql1 = "truncate table sh_python"self.mycursor.execute(sql1)print('已清空之前的数据,上海--python--第一页(90)...开始下载...')def process_item(self, item, spider):job_name = item['job_name']job_firm = item['job_firm']job_firmPeople = item['job_firmPeople']job_salary = item['job_salary']job_type = item['job_type']job_yaoqiu = item['job_yaoqiu']job_welfare = item['job_welfare']try:sql2 = "insert into sh_python VALUES (NULL ,'%s','%s','%s','%s','%s','%s','%s')"%(job_name,job_firm,job_firmPeople,job_salary,job_type,job_yaoqiu,job_welfare)#执行sqlself.mycursor.execute(sql2)#提交self.conn.commit()except Exception as e:print(e)self.conn.rollback()return itemdef close_spider(self,spider):self.mycursor.close()self.conn.close()print('上海--python--第一页(90)...下载完毕...')

 

7. 看数据库是否有数据

成功。

 

转载于:https://www.cnblogs.com/wshr210/p/11351842.html

这篇关于Scrapy框架爬取智联招聘网站上海地区python工作第一页(90条)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/339965

相关文章

Python的Darts库实现时间序列预测

《Python的Darts库实现时间序列预测》Darts一个集统计、机器学习与深度学习模型于一体的Python时间序列预测库,本文主要介绍了Python的Darts库实现时间序列预测,感兴趣的可以了解... 目录目录一、什么是 Darts?二、安装与基本配置安装 Darts导入基础模块三、时间序列数据结构与

Python正则表达式匹配和替换的操作指南

《Python正则表达式匹配和替换的操作指南》正则表达式是处理文本的强大工具,Python通过re模块提供了完整的正则表达式功能,本文将通过代码示例详细介绍Python中的正则匹配和替换操作,需要的朋... 目录基础语法导入re模块基本元字符常用匹配方法1. re.match() - 从字符串开头匹配2.

Python使用FastAPI实现大文件分片上传与断点续传功能

《Python使用FastAPI实现大文件分片上传与断点续传功能》大文件直传常遇到超时、网络抖动失败、失败后只能重传的问题,分片上传+断点续传可以把大文件拆成若干小块逐个上传,并在中断后从已完成分片继... 目录一、接口设计二、服务端实现(FastAPI)2.1 运行环境2.2 目录结构建议2.3 serv

通过Docker容器部署Python环境的全流程

《通过Docker容器部署Python环境的全流程》在现代化开发流程中,Docker因其轻量化、环境隔离和跨平台一致性的特性,已成为部署Python应用的标准工具,本文将详细演示如何通过Docker容... 目录引言一、docker与python的协同优势二、核心步骤详解三、进阶配置技巧四、生产环境最佳实践

Python一次性将指定版本所有包上传PyPI镜像解决方案

《Python一次性将指定版本所有包上传PyPI镜像解决方案》本文主要介绍了一个安全、完整、可离线部署的解决方案,用于一次性准备指定Python版本的所有包,然后导出到内网环境,感兴趣的小伙伴可以跟随... 目录为什么需要这个方案完整解决方案1. 项目目录结构2. 创建智能下载脚本3. 创建包清单生成脚本4

Python实现Excel批量样式修改器(附完整代码)

《Python实现Excel批量样式修改器(附完整代码)》这篇文章主要为大家详细介绍了如何使用Python实现一个Excel批量样式修改器,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一... 目录前言功能特性核心功能界面特性系统要求安装说明使用指南基本操作流程高级功能技术实现核心技术栈关键函

python获取指定名字的程序的文件路径的两种方法

《python获取指定名字的程序的文件路径的两种方法》本文主要介绍了python获取指定名字的程序的文件路径的两种方法,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要... 最近在做项目,需要用到给定一个程序名字就可以自动获取到这个程序在Windows系统下的绝对路径,以下

使用Python批量将.ncm格式的音频文件转换为.mp3格式的实战详解

《使用Python批量将.ncm格式的音频文件转换为.mp3格式的实战详解》本文详细介绍了如何使用Python通过ncmdump工具批量将.ncm音频转换为.mp3的步骤,包括安装、配置ffmpeg环... 目录1. 前言2. 安装 ncmdump3. 实现 .ncm 转 .mp34. 执行过程5. 执行结

Python实现批量CSV转Excel的高性能处理方案

《Python实现批量CSV转Excel的高性能处理方案》在日常办公中,我们经常需要将CSV格式的数据转换为Excel文件,本文将介绍一个基于Python的高性能解决方案,感兴趣的小伙伴可以跟随小编一... 目录一、场景需求二、技术方案三、核心代码四、批量处理方案五、性能优化六、使用示例完整代码七、小结一、

Python中 try / except / else / finally 异常处理方法详解

《Python中try/except/else/finally异常处理方法详解》:本文主要介绍Python中try/except/else/finally异常处理方法的相关资料,涵... 目录1. 基本结构2. 各部分的作用tryexceptelsefinally3. 执行流程总结4. 常见用法(1)多个e