Python实现淘宝商品数据爬取——静态网页爬虫(仅供学习,切勿无限制爬取)

本文主要是介绍Python实现淘宝商品数据爬取——静态网页爬虫(仅供学习,切勿无限制爬取),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

一、关于淘宝网

淘宝网是亚太地区较大的网络零售、商圈,由阿里巴巴集团在2003年5月创立。淘宝网是中国深受欢迎的网购零售平台,拥有近5亿的注册用户数,每天有超过6000万的固定访客,同时每天的在线商品数已经超过了8亿件,平均每分钟售出4.8万件商品。

二、我们的目标是什么?

1、爬取淘宝页面某类商品的价格、名称、店家地址、交易数量;
2、以列表的形式将每一个商品的数据存入.csv文件中;
3、实现与用户的交互功能,不用修改程序也可以进行爬虫;
4、打包程序,以方便更换设备时也可以使用。

三、淘宝网爬虫思路

警告

警告:淘宝网的robots协议设定不允许爬虫,本文仅供爬虫学习,切勿对淘宝网进行大规模爬虫,否则后果自负

爬虫思路

淘宝网“每天的在线商品数已经超过了8亿件,平均每分钟售出4.8万件商品”,如此巨大的数据量,如何在淘宝网上爬取下来呢?
其实,淘宝网的搜索功能就是一个“爬虫”,通过键入“关键词”,实现对服务器的访问,返回你需要的商品序列。一般情况下,返回100页,每页48或60个商品。如下图:返回页数
1、我们需要做的是对每一页进行遍历,爬取每个商品的价格、名称、店家地址、交易数量等数据。
2、这时候我们需要看看“源码”(任意位置右键→查看网页源代码),淘宝网返回静态网页,采用html编写,源码如下图:源码
3、查看“上图源码”,我们发现:
价格数据为"view_price":“8.50”;
名称数据为"raw_title":“爱好圆珠笔按压式子弹头油笔批发办公学生用”
店家地址数据为"item_loc":“浙江 温州”
交易数量数据为"view_sales":“1.0万+人付款”
4、之后我们需要用python的re(正则表达式)库对上述数据进行提取(关于正则表达式的编写,大家可以看一下:正则表达式-菜鸟教程)
5、提取完成之后,就是存储的问题了,我们需要把提取出来的数据用特定格式存储在我们的计算机中,本文采用的存储格式是csv。
以上就是整个“淘宝网爬虫”思路。

四、程序编写

#--author--张俊杰@Nick
#coding:utf-8
import requests
import re
import time
import csvdef getHTMLText(url):try:#每次登陆淘宝,淘宝都会以加密方式返回登陆账号和密码信息,如果使用程序访问的话,需要发送post请求,这时需要发送cookie,以实现自动登录。请使用自己的cookie,复制到header字典中。header={"User-Agent":"Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.142 Safari/537.36",
"cookie":“输入你的cookie”}r = requests.get(url,headers=header,timeout = 30)r.raise_for_status()r.encoding = r.apparent_encodingreturn r.textexcept:return ""def parsePage(ilt,html):try:#请百度搜索正则表达式的菜鸟教程,勤加练习,必有大成。plt = re.findall(r'\"view_price\"\:\"[\d\.]*\"',html)tlt = re.findall(r'\"raw_title\"\:\".*?\"',html)loc = re.findall(r'\"item_loc\"\:\".*?\"',html)sale = re.findall(r'\"view_sales\"\:\"[\d\.]*.*?\"',html)for i in range(len(plt)):price = eval(plt[i].split(':')[1])title = eval(tlt[i].split(':')[1])location = eval(loc[i].split(':')[1])sales = eval(sale[i].split(':')[1])ilt.append([price,title,location,sales])except:print("")def printGoodsList(ilt):tplt = "{:4}\t{:6}\t{:8}\t{:8}\t{:8}"print(tplt.format("序号","价格","商品名称","商品地址","付款数量"))output_list=["序号","价格","商品名称","商品地址","付款数量"]#存储路径需根据需要更改with open('C:/Users/你杰哥/Desktop/python/淘宝/'+str(goods)+'('+str(depth*48)+'条数据)'+'.csv',"a+",encoding='GB18030',newline='') as csvfile:w=csv.writer(csvfile)w.writerow(output_list)csvfile.close()count=0for g in ilt:count = count+1print(tplt.format(count,g[0],g[1],g[2],g[3]))out_putlist=[count,g[0],g[1],g[2],g[3]]#存储路径需根据需要更改with open('C:/Users/你杰哥/Desktop/python/淘宝/'+str(goods)+'('+str(depth*48)+'条数据)'+'.csv',"a+",encoding='GB18030',newline='') as csvfile:w=csv.writer(csvfile)w.writerow(out_putlist)csvfile.close()def main(goods,depth):start_url='https://s.taobao.com/search?q='+goodsinfoList =[]for i in range(depth):try:url = start_url + '&s='+ str(44*i)# 下面是我的网址简化过程,最好学习一下。
#1、https://s.taobao.com/search?q=圆珠笔&imgfile=&js=1&stats_click=search_radio_all%3A1&initiative_id=staobaoz_20190826&ie=utf8&p4ppushleft=1%2C48&s=0
#2、https://s.taobao.com/search?q=圆珠笔&imgfile=&js=1&stats_click=search_radio_all%3A1&initiative_id=staobaoz_20190826&ie=utf8&p4ppushleft=1%2C48
#3、https://s.taobao.com/search?q=圆珠笔
#4、这个网址就可以实现我们需要的数据返回。html= getHTMLText(url)parsePage(infoList,html)except:continue#print(html)        printGoodsList(infoList)#实现超级简单的用户交互,想爬取什么就爬取什么
goods=input("请输入你需要搜索的商品:")
#本文仅供学习,爬虫深度的设置,请理性设置
depth=int(input("请输入需要爬取的页数(请尝试在淘宝中搜索该商品关键词,查看返回页码,请理性设置爬虫深度):"))
#传参,需把外部参数传入main函数中。
main(goods,depth)
#提醒
print("数据爬取结束")
time.sleep(10)

五、封装TB.py成.exe文件

在TB.py同目录下右键打开cmd,执行pyinstaller -F TB.py #TB.py为编写的python文件(如果不会封装,请看我上一篇文章)打包TB.py

六、执行TB.exe文件

1、双击TB.exe;
2、输入关键词(比如圆珠笔)、爬虫页数(depth)(比如2);输入关键词、depth
3、爬虫结束

爬虫结束
4、爬虫结果
爬虫结果

七、总结

1、Python程序简洁,各种第三方库支持,爬虫方便;
2、在初次爬取淘宝网时出现了“无法访问”的问题,这是因为程序访问受限,需发送post请求,创建字典,发送User-Agent和cookie;
3、静态网页爬虫需对网页源代码进行分析,确定数据位置和特征;
4、正则表达式是一种非常简便的数据匹配方式,请认真学习用法,勤加练习;
5、程序编写、运行会遇到很多的问题,耐心解决;
6、淘宝网是不允许爬虫的,所以此帖仅供学习爬虫技术,不建议大家对淘宝网网页进行大规模爬取。

这篇关于Python实现淘宝商品数据爬取——静态网页爬虫(仅供学习,切勿无限制爬取)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/243570

相关文章

MyBatis-Plus逻辑删除实现过程

《MyBatis-Plus逻辑删除实现过程》本文介绍了MyBatis-Plus如何实现逻辑删除功能,包括自动填充字段、配置与实现步骤、常见应用场景,并展示了如何使用remove方法进行逻辑删除,逻辑删... 目录1. 逻辑删除的必要性编程1.1 逻辑删除的定义1.2 逻辑删php除的优点1.3 适用场景2.

Python数据验证神器Pydantic库的使用和实践中的避坑指南

《Python数据验证神器Pydantic库的使用和实践中的避坑指南》Pydantic是一个用于数据验证和设置的库,可以显著简化API接口开发,文章通过一个实际案例,展示了Pydantic如何在生产环... 目录1️⃣ 崩溃时刻:当你的API接口又双叒崩了!2️⃣ 神兵天降:3行代码解决验证难题3️⃣ 深度

C#借助Spire.XLS for .NET实现在Excel中添加文档属性

《C#借助Spire.XLSfor.NET实现在Excel中添加文档属性》在日常的数据处理和项目管理中,Excel文档扮演着举足轻重的角色,本文将深入探讨如何在C#中借助强大的第三方库Spire.... 目录为什么需要程序化添加Excel文档属性使用Spire.XLS for .NET库实现文档属性管理Sp

Python+FFmpeg实现视频自动化处理的完整指南

《Python+FFmpeg实现视频自动化处理的完整指南》本文总结了一套在Python中使用subprocess.run调用FFmpeg进行视频自动化处理的解决方案,涵盖了跨平台硬件加速、中间素材处理... 目录一、 跨平台硬件加速:统一接口设计1. 核心映射逻辑2. python 实现代码二、 中间素材处

python中的flask_sqlalchemy的使用及示例详解

《python中的flask_sqlalchemy的使用及示例详解》文章主要介绍了在使用SQLAlchemy创建模型实例时,通过元类动态创建实例的方式,并说明了如何在实例化时执行__init__方法,... 目录@orm.reconstructorSQLAlchemy的回滚关联其他模型数据库基本操作将数据添

Java数组动态扩容的实现示例

《Java数组动态扩容的实现示例》本文主要介绍了Java数组动态扩容的实现示例,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧... 目录1 问题2 方法3 结语1 问题实现动态的给数组添加元素效果,实现对数组扩容,原始数组使用静态分配

Python实现快速扫描目标主机的开放端口和服务

《Python实现快速扫描目标主机的开放端口和服务》这篇文章主要为大家详细介绍了如何使用Python编写一个功能强大的端口扫描器脚本,实现快速扫描目标主机的开放端口和服务,感兴趣的小伙伴可以了解下... 目录功能介绍场景应用1. 网络安全审计2. 系统管理维护3. 网络故障排查4. 合规性检查报错处理1.

MySQL快速复制一张表的四种核心方法(包括表结构和数据)

《MySQL快速复制一张表的四种核心方法(包括表结构和数据)》本文详细介绍了四种复制MySQL表(结构+数据)的方法,并对每种方法进行了对比分析,适用于不同场景和数据量的复制需求,特别是针对超大表(1... 目录一、mysql 复制表(结构+数据)的 4 种核心方法(面试结构化回答)方法 1:CREATE

Python轻松实现Word到Markdown的转换

《Python轻松实现Word到Markdown的转换》在文档管理、内容发布等场景中,将Word转换为Markdown格式是常见需求,本文将介绍如何使用FreeSpire.DocforPython实现... 目录一、工具简介二、核心转换实现1. 基础单文件转换2. 批量转换Word文件三、工具特性分析优点局

Python中4大日志记录库比较的终极PK

《Python中4大日志记录库比较的终极PK》日志记录框架是一种工具,可帮助您标准化应用程序中的日志记录过程,:本文主要介绍Python中4大日志记录库比较的相关资料,文中通过代码介绍的非常详细,... 目录一、logging库1、优点2、缺点二、LogAid库三、Loguru库四、Structlogphp