Python 协程并发下载斗鱼美女图片

2024-08-21 04:58

本文主要是介绍Python 协程并发下载斗鱼美女图片,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

仅用学习参考,转载请注明出处

13423234-1555c3e8f523b8f4.png

爬虫技术第一步

作为爬虫技术第一步,就是可以使用爬取下载图片作为示例。
那么爬取图片,我们肯定去爬取美女图片作为第一步操作示例呀。
那么下面一个最重要的工作。
什么是最重要的工作?


13423234-ce3b44a8052e5934.gif
当然是去寻找美女图片呀

去斗鱼找美女图片

来点击这里访问颜值直播间:

13423234-bfd9b46844fa560d.png

这里跳过爬取页面,使用正则获取图片的url地址的步骤,直接找几张图片的url地址进行并发下载测试。

13423234-a6badf6b3117394a.png

打开chrome浏览器的F12淡定点击图片,就可以看到里面的图片url地址啦。

复制一个图片地址,使用浏览器打开看看。

13423234-6cba598ae2ffa515.png

好啦,多操作几个图片的url地址,我准备如下:

  • https://rpic.douyucdn.cn/live-cover/appCovers/2018/12/04/1853869_20181204200344_small.jpg
  • https://rpic.douyucdn.cn/live-cover/appCovers/2018/11/03/3933251_20181103191841_small.jpg
  • https://rpic.douyucdn.cn/live-cover/roomCover/2018/11/06/572d6afd241adb4740ce0dfba086f09e_big.jpg
  • https://rpic.douyucdn.cn/live-cover/appCovers/2018/11/19/3318573_20181119225716_small.jpg
  • https://rpic.douyucdn.cn/live-cover/appCovers/2018/12/01/4566947_20181201145747_small.jpg
  • https://rpic.douyucdn.cn/live-cover/appCovers/2018/12/11/2348814_20181211031627_small.jpg
    好了,准备了那么多张图片的url地址啦。
    13423234-cad41baa7875c260.gif
    不要心急打开

使用urllib库下载第一张图片

首先在ipython3测试一下urllib库:

In [1]: import urllib.request   In [3]: req = urllib.request.urlopen("https://www.baidu.com")                               In [4]:                                                                                     In [4]: req.read()                                                                          
Out[4]: b'<html>\r\n<head>\r\n\t<script>\r\n\t\tlocation.replace(location.href.replace("https://","http://"));\r\n\t</script>\r\n</head>\r\n<body>\r\n\t<noscript><meta http-equiv="refresh" content="0;url=http://www.baidu.com/"></noscript>\r\n</body>\r\n</html>'In [5]:

从上面已经可以看出爬取了浏览器打开百度的页面内容了。

下面就来写个下载图片的示例:

[root@server01 download_image]# cat download_image.py 
#coding=utf-8
import urllib.request# 根据url地址打开图片内容
req = urllib.request.urlopen("https://rpic.douyucdn.cn/live-cover/appCovers/2018/12/11/2348814_20181211031627_small.jpg")img_content = req.read() # 将图片内容进行读取with open("meinv.jpg","wb") as f:f.write(img_content)

执行下载如下:

[root@server01 download_image]# ls
download_image.py
[root@server01 download_image]# 
[root@server01 download_image]# python3 download_image.py 
[root@server01 download_image]# 
[root@server01 download_image]# ls
download_image.py  meinv.jpg
[root@server01 download_image]# 

此时可以看到多了一个meinv.jpg文件,放到桌面来查看一下。

13423234-946ac50272999061.png

好了,下载第一张图片的示例已经有了,那么下面大家应该都懂了。
那么是将其写成方法,然后同时并发执行下载。

使用gevent并发下载美女图片

[root@server01 download_image]# cat test.py 
#coding=utf-8
import urllib.request
import gevent
from gevent import monkey
import timemonkey.patch_all() # 将程序中用到的耗时操作代码,换为gevent中自己实现的模块def download_image(image_name,image_url):# 根据url地址打开图片内容req = urllib.request.urlopen(image_url)img_content = req.read() # 将图片内容进行读取with open(image_name,"wb") as f:f.write(img_content)time.sleep(0.5)print("download %s",image_name)def main():gevent.joinall([gevent.spawn(download_image,"1.jpg","https://rpic.douyucdn.cn/live-cover/appCovers/2018/12/11/2348814_20181211031627_small.jpg"),gevent.spawn(download_image,"2.jpg","https://rpic.douyucdn.cn/live-cover/appCovers/2018/11/03/3933251_20181103191841_small.jpg"),gevent.spawn(download_image,"3.jpg","https://rpic.douyucdn.cn/live-cover/roomCover/2018/11/06/572d6afd241adb4740ce0dfba086f09e_big.jpg"),gevent.spawn(download_image,"4.jpg","https://rpic.douyucdn.cn/live-cover/appCovers/2018/11/19/3318573_20181119225716_small.jpg"),gevent.spawn(download_image,"5.jpg","https://rpic.douyucdn.cn/live-cover/appCovers/2018/12/01/4566947_20181201145747_small.jpg"),gevent.spawn(download_image,"6.jpg","https://rpic.douyucdn.cn/live-cover/appCovers/2018/12/11/2348814_20181211031627_small.jpg"),])if __name__ == "__main__":main()
[root@server01 download_image]# 

执行如下:

[root@server01 download_image]# python3 test.py 
download %s 4.jpg
download %s 6.jpg
download %s 2.jpg
download %s 1.jpg
download %s 5.jpg
download %s 3.jpg
[root@server01 download_image]# ls
1.jpg  2.jpg  3.jpg  4.jpg  5.jpg  6.jpg  test.py

好了,这样就下载完图片了,放到桌面淡定看看。

13423234-e6a3e50d6cbdc9dd.png

淡定成功。

13423234-7907ae6344e86e8a.png

关注微信公众号,回复【资料】、Python、PHP、JAVA、web,则可获得Python、PHP、JAVA、前端等视频资料。

这篇关于Python 协程并发下载斗鱼美女图片的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1092183

相关文章

使用python生成固定格式序号的方法详解

《使用python生成固定格式序号的方法详解》这篇文章主要为大家详细介绍了如何使用python生成固定格式序号,文中的示例代码讲解详细,具有一定的借鉴价值,有需要的小伙伴可以参考一下... 目录生成结果验证完整生成代码扩展说明1. 保存到文本文件2. 转换为jsON格式3. 处理特殊序号格式(如带圈数字)4

Python版本信息获取方法详解与实战

《Python版本信息获取方法详解与实战》在Python开发中,获取Python版本号是调试、兼容性检查和版本控制的重要基础操作,本文详细介绍了如何使用sys和platform模块获取Python的主... 目录1. python版本号获取基础2. 使用sys模块获取版本信息2.1 sys模块概述2.1.1

一文详解Python如何开发游戏

《一文详解Python如何开发游戏》Python是一种非常流行的编程语言,也可以用来开发游戏模组,:本文主要介绍Python如何开发游戏的相关资料,文中通过代码介绍的非常详细,需要的朋友可以参考下... 目录一、python简介二、Python 开发 2D 游戏的优劣势优势缺点三、Python 开发 3D

Python函数作用域与闭包举例深度解析

《Python函数作用域与闭包举例深度解析》Python函数的作用域规则和闭包是编程中的关键概念,它们决定了变量的访问和生命周期,:本文主要介绍Python函数作用域与闭包的相关资料,文中通过代码... 目录1. 基础作用域访问示例1:访问全局变量示例2:访问外层函数变量2. 闭包基础示例3:简单闭包示例4

Python实现字典转字符串的五种方法

《Python实现字典转字符串的五种方法》本文介绍了在Python中如何将字典数据结构转换为字符串格式的多种方法,首先可以通过内置的str()函数进行简单转换;其次利用ison.dumps()函数能够... 目录1、使用json模块的dumps方法:2、使用str方法:3、使用循环和字符串拼接:4、使用字符

Python版本与package版本兼容性检查方法总结

《Python版本与package版本兼容性检查方法总结》:本文主要介绍Python版本与package版本兼容性检查方法的相关资料,文中提供四种检查方法,分别是pip查询、conda管理、PyP... 目录引言为什么会出现兼容性问题方法一:用 pip 官方命令查询可用版本方法二:conda 管理包环境方法

基于Python开发Windows自动更新控制工具

《基于Python开发Windows自动更新控制工具》在当今数字化时代,操作系统更新已成为计算机维护的重要组成部分,本文介绍一款基于Python和PyQt5的Windows自动更新控制工具,有需要的可... 目录设计原理与技术实现系统架构概述数学建模工具界面完整代码实现技术深度分析多层级控制理论服务层控制注

pycharm跑python项目易出错的问题总结

《pycharm跑python项目易出错的问题总结》:本文主要介绍pycharm跑python项目易出错问题的相关资料,当你在PyCharm中运行Python程序时遇到报错,可以按照以下步骤进行排... 1. 一定不要在pycharm终端里面创建环境安装别人的项目子模块等,有可能出现的问题就是你不报错都安装

Python打包成exe常用的四种方法小结

《Python打包成exe常用的四种方法小结》本文主要介绍了Python打包成exe常用的四种方法,包括PyInstaller、cx_Freeze、Py2exe、Nuitka,文中通过示例代码介绍的非... 目录一.PyInstaller11.安装:2. PyInstaller常用参数下面是pyinstal

Python爬虫HTTPS使用requests,httpx,aiohttp实战中的证书异步等问题

《Python爬虫HTTPS使用requests,httpx,aiohttp实战中的证书异步等问题》在爬虫工程里,“HTTPS”是绕不开的话题,HTTPS为传输加密提供保护,同时也给爬虫带来证书校验、... 目录一、核心问题与优先级检查(先问三件事)二、基础示例:requests 与证书处理三、高并发选型: