讲了这么多关于python爬虫,今天带你回顾ython爬虫知识

2024-01-28 06:50

本文主要是介绍讲了这么多关于python爬虫,今天带你回顾ython爬虫知识,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理

以下文章来源于腾讯云 作者:东风冷雪

( 想要学习Python?Python学习交流群:1039649593,满足你的需求,资料都已经上传群文件流,可以自行下载!还有海量最新2020python学习资料。 )
在这里插入图片描述

最常用的requests库, 通过requests对象的get方法,获取一个response对象。jsp的东西。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
其中timeout,proxies,headers,cookies,verify,是我用到过的东西。

response对象的方法和属性
text属性,属于字符流,获取文字。
content属性,二进制,获取图片,文件等

hashlib
摘要算法简介
Python的hashlib提供了常见的摘要算法,如MD5,SHA1等等。

什么是摘要算法呢?摘要算法又称哈希算法、散列算法。它通过一个函数,把任意长度的数据转换为一个长度固定的数据串(通常用16进制的字符串表示)。

举个例子,你写了一篇文章,内容是一个字符串’how to use python hashlib - by Michael’,并附上这篇文章的摘要是’2d73d4f15c0db7f5ecb321b6a65e5d6d’。如果有人篡改了你的文章,并发表为’how to use python hashlib - by Bob’,你可以一下子指出Bob篡改了你的文章,因为根据’how to use python hashlib - by Bob’计算出的摘要不同于原始文章的摘要。

可见,摘要算法就是通过摘要函数f()对任意长度的数据data计算出固定长度的摘要digest,目的是为了发现原始数据是否被人篡改过。

摘要算法之所以能指出数据是否被篡改过,就是因为摘要函数是一个单向函数,计算f(data)很容易,但通过digest反推data却非常困难。而且,对原始数据做一个bit的修改,都会导致计算出的摘要完全不同。

def get_MD5(st="alice"):md5=hashlib.md5()md5.update(st.encode(encoding="utf-8"))print(md5.hexdigest())get_MD5()

代理和头部处理

def get_html(url):headers = {'Accept': '*/*','Accept-Language': 'en-US,en;q=0.8','Cache-Control': 'max-age=0','User-Agent': 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/48.0.2564.116 Safari/537.36','Connection': 'keep-alive','Referer': 'http://www.baidu.com/'}proxy = [{'https': 'http://yx827w:yx827w@123.249.47.2:888'},{'https': 'http://yx827w:yx827w@123.249.47.3:888'},{'https': 'http://yx827w:yx827w@123.249.47.4:888'},{'https': 'http://yx827w:yx827w@123.249.47.5:888'},{'https': 'http://yx827w:yx827w@123.249.47.6:888'},{'https': 'http://yx827w:yx827w@123.249.47.7:888'},{'https': 'http://yx827w:yx827w@123.249.47.8:888'},{'https': 'http://yx827w:yx827w@123.249.47.9:888'},{'https': 'http://yx827w:yx827w@123.249.47.10:888'},{'https': 'http://yx827w:yx827w@123.249.47.11:888'},{'https': 'http://yx827w:yx827w@123.249.47.13:888'},{'https': 'http://yx827w:yx827w@123.249.47.14:888'},{'https': 'http://yx827w:yx827w@123.249.47.15:888'},{'https': 'http://yx827w:yx827w@123.249.47.16:888'},{'https': 'http://yx827w:yx827w@123.249.47.17:888'},{'https': 'http://yx827w:yx827w@123.249.47.18:888'},{'https': 'http://yx827w:yx827w@123.249.47.19:888'},{'https': 'http://yx827w:yx827w@123.249.47.20:888'},{'https': 'http://yx827w:yx827w@123.249.47.21:888'},{'https': 'http://yx827w:yx827w@123.249.47.22:888'},{'https': 'http://yx827w:yx827w@123.249.47.23:888'},{'https': 'http://yx827w:yx827w@123.249.47.24:888'},{'https': 'http://yx827w:yx827w@123.249.47.25:888'},{'https': 'http://yx827w:yx827w@123.249.47.26:888'},{'https': 'http://yx827w:yx827w@123.249.47.27:888'},{'https': 'http://yx827w:yx827w@123.249.47.28:888'},{'https': 'http://yx827w:yx827w@123.249.47.29:888'},{'https': 'http://yx827w:yx827w@123.249.47.30:888'},{'https': 'http://yx827w:yx827w@123.249.47.31:888'},{'https': 'http://yx827w:yx827w@123.249.47.32:888'},{'https': 'http://yx827w:yx827w@123.249.47.33:888'},{'https': 'http://yx827w:yx827w@123.249.47.34:888'},{'https': 'http://yx827w:yx827w@123.249.47.35:888'},{'https': 'http://yx827w:yx827w@123.249.47.36:888'},{'https': 'http://yx827w:yx827w@123.249.47.37:888'},{'https': 'http://yx827w:yx827w@123.249.47.38:888'},{'https': 'http://yx827w:yx827w@123.249.47.39:888'},{'https': 'http://yx827w:yx827w@123.249.47.40:888'},{'https': 'http://yx827w:yx827w@123.249.47.41:888'},]pro=random.choice(proxy)print(type(pro))print(pro)res=requests.get(url,headers=head,proxies=pro)html=res.text //返回字符串。print(html)return html

xpath技术

1.0 使用etree的HTML方法获取数据,返回的是一个节点对象

from lxml import etree
html=get_html("https://blog.csdn.net/u014595019/article/details/51884529")
print(html)
page=etree.HTML(html)
print(type(page),page)
xp='//*[@id="mainBox"]/main/div[1]/div/div/div[2]/div[1]/span[2]'
readnum=page.xpath(xp)for a in readnum:print(a.attrib)print(a.text)print(a.get("class"))

结果如下

<class 'lxml.etree._Element'> <Element html at 0x47a7288>
{'class': 'read-count'}
阅读数:40927
read-count

这篇关于讲了这么多关于python爬虫,今天带你回顾ython爬虫知识的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/652815

相关文章

Python文件操作与IO流的使用方式

《Python文件操作与IO流的使用方式》:本文主要介绍Python文件操作与IO流的使用方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录一、python文件操作基础1. 打开文件2. 关闭文件二、文件读写操作1.www.chinasem.cn 读取文件2. 写

使用Python自动化生成PPT并结合LLM生成内容的代码解析

《使用Python自动化生成PPT并结合LLM生成内容的代码解析》PowerPoint是常用的文档工具,但手动设计和排版耗时耗力,本文将展示如何通过Python自动化提取PPT样式并生成新PPT,同时... 目录核心代码解析1. 提取 PPT 样式到 jsON关键步骤:代码片段:2. 应用 JSON 样式到

python通过curl实现访问deepseek的API

《python通过curl实现访问deepseek的API》这篇文章主要为大家详细介绍了python如何通过curl实现访问deepseek的API,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编... API申请和充值下面是deepeek的API网站https://platform.deepsee

Python Selenium动态渲染页面和抓取的使用指南

《PythonSelenium动态渲染页面和抓取的使用指南》在Web数据采集领域,动态渲染页面已成为现代网站的主流形式,本文将从技术原理,环境配置,核心功能系统讲解Selenium在Python动态... 目录一、Selenium技术架构解析二、环境搭建与基础配置1. 组件安装2. 驱动配置3. 基础操作模

Python将字库文件打包成可执行文件的常见方法

《Python将字库文件打包成可执行文件的常见方法》在Python打包时,如果你想将字库文件一起打包成一个可执行文件,有几种常见的方法,具体取决于你使用的打包工具,下面就跟随小编一起了解下具体的实现方... 目录使用 PyInstaller基本方法 - 使用 --add-data 参数使用 spec 文件(

Python MCPInspector调试思路详解

《PythonMCPInspector调试思路详解》:本文主要介绍PythonMCPInspector调试思路详解,本文给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋... 目录python-MCPInspector调试1-核心知识点2-思路整理1-核心思路2-核心代码3-参考网址

将图片导入Python的turtle库的详细过程

《将图片导入Python的turtle库的详细过程》在Python编程的世界里,turtle库以其简单易用、图形化交互的特点,深受初学者喜爱,随着项目的复杂度增加,仅仅依靠线条和颜色来绘制图形可能已经... 目录开篇引言正文剖析1. 理解基础:Turtle库的工作原理2. 图片格式与支持3. 实现步骤详解第

Python的pip在命令行无法使用问题的解决方法

《Python的pip在命令行无法使用问题的解决方法》PIP是通用的Python包管理工具,提供了对Python包的查找、下载、安装、卸载、更新等功能,安装诸如Pygame、Pymysql等Pyt... 目录前言一. pip是什么?二. 为什么无法使用?1. 当我们在命令行输入指令并回车时,一般主要是出现以

Python解决雅努斯问题实例方案详解

《Python解决雅努斯问题实例方案详解》:本文主要介绍Python解决雅努斯问题实例方案,雅努斯问题是指AI生成的3D对象在不同视角下出现不一致性的问题,即从不同角度看物体时,物体的形状会出现不... 目录一、雅努斯简介二、雅努斯问题三、示例代码四、解决方案五、完整解决方案一、雅努斯简介雅努斯(Janu

使用Python和SQLAlchemy实现高效的邮件发送系统

《使用Python和SQLAlchemy实现高效的邮件发送系统》在现代Web应用中,邮件通知是不可或缺的功能之一,无论是订单确认、文件处理结果通知,还是系统告警,邮件都是最常用的通信方式之一,本文将详... 目录引言1. 需求分析2. 数据库设计2.1 User 表(存储用户信息)2.2 CustomerO