python爬虫实战 爬取天极图片

2024-01-05 13:50

本文主要是介绍python爬虫实战 爬取天极图片,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

学习爬虫个人的意见是直接实战效果会很好 不要等全学完requests ,正则表达式,BeautifulSoup等再来实际操作。其实很多实战我们并不会用到requests库,BeautifulSoup,正则表达式的全部知识。全部学懂记下来再去实战会很难。不如跟着我直接就该是写爬虫吧。遇到什么问题我们再一一解决。


1 导入各种要用到的库,具体什么用法下面会讲

 

import re
import os
import time
import random
import requests
from bs4 import BeautifulSoup# 这几个库是我们自己写的 后面会教你写 这里我们先导入
from packages.save import save

2 我们加个header 表头 让服务器以为我们是一个真的浏览器 才会返回给我们图片数据

header = {'User-Agent':"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/22.0.1207.1 Safari/537.1"}

注意:每个浏览器的表头不一样。用你自己浏览器的表头就行。

这里我用的是谷歌浏览器,这里示范给你们看。

你现在在阅读我的文章,直接F12 打开开发者工具。


   

随便点击Name下面一个 这里我们点击第一个qton_csdn?viewmode=list 右边边下拉到最后看到

  1. User-Agent:
    Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/52.0.2743.116 Safari/537.36
  2. 这个就是我浏览器的表头了。


3 写好表头 我们来定义一个函数来获取一个网址的HTML 我们定义为def get_html(url,timeout=2): 这里有两个参数,url 为我们要爬取网页的网址,timeout=2 即两秒内服务器如果无返回数据我们断掉此次获取不然程序一直等下去。

代码:
def get_html(url,timeout=2):try:return requests.get(url,header,timeout=3)except:# 换表头,换ipprint('换表头,使用代理!')time.sleep(random.randrange(1,11))return requests.get(url,headers=get_random_header(),proxies={'http':get_random_ip()},timeout=2)
try:函数 我们用自己的表头试着去获取HTML 如果成功则返回HTML 如3秒内无返回数据,则执行下面excep:代码
excep:代码
我们先随机停顿1到10秒 用到 time库的time.sleep 函数 random库的 random.randrange(1,11) 随机取1-11 的数 不包括11
接着我们换个表头,用我们收集来的其它浏览器的表头去获取HTML,再使用一下代理:
这里我们需要在你写爬虫代码的文件下创建一个包(这里涉及到创建函数包的问题),命名为packages,在packages下创建代码为header.py和 ip.py ip池。


header.py下代码为:
import randomheaders_list=["Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/22.0.1207.1 Safari/537.1","Mozilla/5.0 (X11; CrOS i686 2268.111.0) AppleWebKit/536.11 (KHTML, like Gecko) Chrome/20.0.1132.57 Safari/536.11","Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.6 (KHTML, like Gecko) Chrome/20.0.1092.0 Safari/536.6","Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.6 (KHTML, like Gecko) Chrome/20.0.1090.0 Safari/536.6","Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/19.77.34.5 Safari/537.1","Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/536.5 (KHTML, like Gecko) Chrome/19.0.1084.9 Safari/536.5","Mozilla/5.0 (Windows NT 6.0) AppleWebKit/536.5 (KHTML, like Gecko) Chrome/19.0.1084.36 Safari/536.5","Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1063.0 Safari/536.3","Mozilla/5.0 (Windows NT 5.1) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1063.0 Safari/536.3","Mozilla/5.0 (Macintosh; Intel Mac OS X 10_8_0) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1063.0 Safari/536.3","Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1062.0 Safari/536.3","Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1062.0 Safari/536.3","Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.1 Safari/536.3","Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.1 Safari/536.3","Mozilla/5.0 (Windows NT 6.1) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.1 Safari/536.3","Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.0 Safari/536.3","Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/535.24 (KHTML, like Gecko) Chrome/19.0.1055.1 Safari/535.24","Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/535.24 (KHTML, like Gecko) Chrome/19.0.1055.1 Safari/535.24"
]def get_random_header():UA=random.choice(headers_list)header={'User-Agent':UA}return header
我们在大本营要调用此函数 def get_random_header(): 时需要先import 就是上面那个
from packages.header import get_random_header
def get_random_header()的作用是调用一次他的时候随机返回一个表头header

ip.py下面代码为:
import re
import random
import requestsdef get_random_ip():try:html=requests.get('http://haoip.cc/tiqu.htm')ip_list=re.findall(r'([\d].*?)<br/>',html.text)ip=random.choice(ip_list)return ipexcept:print('get_random_ip 出错!')return None


下面给出所有代码,先自己领悟领悟。



全部代码:
1 主代码:爬取-天极.py
import re
import os
import time
import random
import requests
from bs4 import BeautifulSoup# 这几个库是我们自己写的 后面会教你写 这里我们先导入
from packages.save import save
from packages.ip import get_random_ip
from packages.header import get_random_headerheader = {'User-Agent':"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/22.0.1207.1 Safari/537.1"}def get_html(url,timeout=2):try:return requests.get(url,header,timeout=3)except:# 换表头,换ipprint('换表头,使用代理!')time.sleep(random.randrange(1,11))return requests.get(url,headers=get_random_header(),proxies={'http':get_random_ip()},timeout=2)def main():for big_page in range(1,8):all_url = 'http://pic.yesky.com/c/6_20471_%s.shtml'%big_pagebig_page_html=get_html(all_url)Soup = BeautifulSoup(big_page_html.text, 'lxml')all_a = Soup.find('div', class_='lb_box').find_all('a')for a in all_a:# 取出 title urltitle = a.get_text()href = a['href'] # time.sleep(0.5)# 创建以 title 为名的文件夹path = str(title).strip()try:os.makedirs(os.path.join("F:\pic.yesky", path))os.chdir("F:\pic.yesky\\"+path)print(href)except:# print('file existed!')time.sleep(0.1)continue# 查看文件夹有几页图片try:html = get_html(href)except:print('出错')continuehtml_Soup = BeautifulSoup(html.text,'lxml')max_page = html_Soup.find_all('span')[10].get_text()F_MAX=re.compile(r'/([0-9]*)')# 取出文件夹每页的图片try:max_page=F_MAX.findall(max_page)[0]a=int(max_page)except:continuefor page in range(2,a+1):url_photo=href.replace('.shtml','_%s.shtml'%page)# print('图片页面URL',url_photo)try:img_html=get_html(url_photo)except:continueimg_Soup=BeautifulSoup(img_html.text,'lxml')try:url_photo=img_Soup.find('div',class_='l_effect_img_mid').find('img')['src']img=get_html(url_photo)except:continue# 保存try:f=open(str(page)+'.jpg','wb')f.write(img.content)f.close()# print(url_photo)except:print('保存出错')continue#一个文件夹结束停顿time.sleep(1) '''# 保存try:f=open(str(page)+'.jpg','wb')f.write(img.content)f.close()print(url_photo)except:print('保存出错')continue#一个文件夹结束停顿time.sleep(2) '''if __name__ == '__main__':main()

2 packages包应放在 爬取-天极代码童文件下,如图:

packages 下创建 header.py ip.py save.py 三个代码 如图:



header.py下代码:
import randomheaders_list=["Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/22.0.1207.1 Safari/537.1","Mozilla/5.0 (X11; CrOS i686 2268.111.0) AppleWebKit/536.11 (KHTML, like Gecko) Chrome/20.0.1132.57 Safari/536.11","Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.6 (KHTML, like Gecko) Chrome/20.0.1092.0 Safari/536.6","Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.6 (KHTML, like Gecko) Chrome/20.0.1090.0 Safari/536.6","Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/19.77.34.5 Safari/537.1","Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/536.5 (KHTML, like Gecko) Chrome/19.0.1084.9 Safari/536.5","Mozilla/5.0 (Windows NT 6.0) AppleWebKit/536.5 (KHTML, like Gecko) Chrome/19.0.1084.36 Safari/536.5","Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1063.0 Safari/536.3","Mozilla/5.0 (Windows NT 5.1) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1063.0 Safari/536.3","Mozilla/5.0 (Macintosh; Intel Mac OS X 10_8_0) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1063.0 Safari/536.3","Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1062.0 Safari/536.3","Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1062.0 Safari/536.3","Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.1 Safari/536.3","Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.1 Safari/536.3","Mozilla/5.0 (Windows NT 6.1) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.1 Safari/536.3","Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.0 Safari/536.3","Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/535.24 (KHTML, like Gecko) Chrome/19.0.1055.1 Safari/535.24","Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/535.24 (KHTML, like Gecko) Chrome/19.0.1055.1 Safari/535.24"
]def get_random_header():UA=random.choice(headers_list)header={'User-Agent':UA}return header

ip.py下代码:
import re
import random
import requestsdef get_random_ip():try:html=requests.get('http://haoip.cc/tiqu.htm')ip_list=re.findall(r'([\d].*?)<br/>',html.text)ip=random.choice(ip_list)return ipexcept:print('get_random_ip 出错!')return None

save.py下代码:
import urllib.request
from urllib.error import HTTPErrordef save(url,name):print(url,name)try:urllib.request.urlretrieve(url,'下载\\%s.jpg'%name)print(name,'saving...')except HTTPError as e:print('读取错误!',e)return Noneexcept:print('save 错误')return None




附上爬取http://www.mzitu.com 网站全部图片的代码:
import re
import os
import time
import random
import requests
from bs4 import BeautifulSoupfrom packages.save import save
from packages.ip import get_random_ip
from packages.header import get_random_headerheader = {'User-Agent':"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/22.0.1207.1 Safari/537.1"}def get_html(url,timeout=2):try:return requests.get(url,header,timeout=3)except:# 换表头,换ipprint('换表头,使用代理!')return requests.get(url,headers=get_random_header(),proxies={'http':get_random_ip()},timeout=2)def main():all_url = 'http://www.mzitu.com/all'start_html = requests.get(all_url,  headers=header) Soup = BeautifulSoup(start_html.text, 'lxml')all_a = Soup.find('div', class_='all').find_all('a')for a in all_a:# 取出 title urltitle = a.get_text()href = a['href'] # print(href)# 创建以 title 为名的文件夹path = str(title).strip()try:os.makedirs(os.path.join("F:\Scraping", path))os.chdir("F:\Scraping\\"+path)except:# print('file existed!')# time.sleep(0.1)exit()continue# 查看文件夹有几页图片try:html = get_html(href)except:print('出错')continuehtml_Soup = BeautifulSoup(html.text,'lxml')max_page = html_Soup.find_all('span')[10].get_text()# 取出文件夹每页的图片try:a=int(max_page)except:continuefor page in range(1,a+1):url_photo=href+'/%s'%pagetry:img_html=get_html(url_photo)except:continueimg_Soup=BeautifulSoup(img_html.text,'lxml')try:url_photo=img_Soup.find('div',class_='main-image').find('img')['src']img=get_html(url_photo)except:continue# 保存try:f=open(str(page)+'.jpg','wb')f.write(img.content)f.close()print(url_photo)except:print('保存出错')continue#一个文件夹结束停顿time.sleep(2) if __name__ == '__main__':main()


这篇关于python爬虫实战 爬取天极图片的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!


原文地址:https://blog.csdn.net/Qton_CSDN/article/details/71158575
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.chinasem.cn/article/573074

相关文章

Apache 高级配置实战之从连接保持到日志分析的完整指南

《Apache高级配置实战之从连接保持到日志分析的完整指南》本文带你从连接保持优化开始,一路走到访问控制和日志管理,最后用AWStats来分析网站数据,对Apache配置日志分析相关知识感兴趣的朋友... 目录Apache 高级配置实战:从连接保持到日志分析的完整指南前言 一、Apache 连接保持 - 性

使用Python实现Windows系统垃圾清理

《使用Python实现Windows系统垃圾清理》Windows自带的磁盘清理工具功能有限,无法深度清理各类垃圾文件,所以本文为大家介绍了如何使用Python+PyQt5开发一个Windows系统垃圾... 目录一、开发背景与工具概述1.1 为什么需要专业清理工具1.2 工具设计理念二、工具核心功能解析2.

Python实现一键PDF转Word(附完整代码及详细步骤)

《Python实现一键PDF转Word(附完整代码及详细步骤)》pdf2docx是一个基于Python的第三方库,专门用于将PDF文件转换为可编辑的Word文档,下面我们就来看看如何通过pdf2doc... 目录引言:为什么需要PDF转Word一、pdf2docx介绍1. pdf2docx 是什么2. by

Python函数返回多个值的多种方法小结

《Python函数返回多个值的多种方法小结》在Python中,函数通常用于封装一段代码,使其可以重复调用,有时,我们希望一个函数能够返回多个值,Python提供了几种不同的方法来实现这一点,需要的朋友... 目录一、使用元组(Tuple):二、使用列表(list)三、使用字典(Dictionary)四、 使

Python程序的文件头部声明小结

《Python程序的文件头部声明小结》在Python文件的顶部声明编码通常是必须的,尤其是在处理非ASCII字符时,下面就来介绍一下两种头部文件声明,具有一定的参考价值,感兴趣的可以了解一下... 目录一、# coding=utf-8二、#!/usr/bin/env python三、运行Python程序四、

python web 开发之Flask中间件与请求处理钩子的最佳实践

《pythonweb开发之Flask中间件与请求处理钩子的最佳实践》Flask作为轻量级Web框架,提供了灵活的请求处理机制,中间件和请求钩子允许开发者在请求处理的不同阶段插入自定义逻辑,实现诸如... 目录Flask中间件与请求处理钩子完全指南1. 引言2. 请求处理生命周期概述3. 请求钩子详解3.1

使用Python实现网页表格转换为markdown

《使用Python实现网页表格转换为markdown》在日常工作中,我们经常需要从网页上复制表格数据,并将其转换成Markdown格式,本文将使用Python编写一个网页表格转Markdown工具,需... 在日常工作中,我们经常需要从网页上复制表格数据,并将其转换成Markdown格式,以便在文档、邮件或

Python使用pynput模拟实现键盘自动输入工具

《Python使用pynput模拟实现键盘自动输入工具》在日常办公和软件开发中,我们经常需要处理大量重复的文本输入工作,所以本文就来和大家介绍一款使用Python的PyQt5库结合pynput键盘控制... 目录概述:当自动化遇上可视化功能全景图核心功能矩阵技术栈深度效果展示使用教程四步操作指南核心代码解析

Python实现pdf电子发票信息提取到excel表格

《Python实现pdf电子发票信息提取到excel表格》这篇文章主要为大家详细介绍了如何使用Python实现pdf电子发票信息提取并保存到excel表格,文中的示例代码讲解详细,感兴趣的小伙伴可以跟... 目录应用场景详细代码步骤总结优化应用场景电子发票信息提取系统主要应用于以下场景:企业财务部门:需

基于Python实现智能天气提醒助手

《基于Python实现智能天气提醒助手》这篇文章主要来和大家分享一个实用的Python天气提醒助手开发方案,这个工具可以方便地集成到青龙面板或其他调度框架中使用,有需要的小伙伴可以参考一下... 目录项目概述核心功能技术实现1. 天气API集成2. AI建议生成3. 消息推送环境配置使用方法完整代码项目特点