Python爬虫:看看舞蹈区哪个女网红最给力,如果爬虫不是为了爬视频,那将毫无意义

2024-03-08 21:10

本文主要是介绍Python爬虫:看看舞蹈区哪个女网红最给力,如果爬虫不是为了爬视频,那将毫无意义,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

      • 一、前面的前奏
      • 二、爬虫流程
      • 三、代码展示

直播平台就只有那么几个流批的,大家应该多少都看过,不是吧不是吧,不会没有不知道吧~
在这里插入图片描述

再众所周知,颜值区的主播一直都是还不错的,一般人顶不住,所以我们今天来一探深浅~
在这里插入图片描述

一、前面的前奏

1、使用的环境

  • Python3.8
  • pycharm专业版

2、模块安装

这是要用的模块

  • requests
  • re
  • json

win+r打开搜索输入cmd按确定打开命令提示符窗口,输入pip install 加上你要安装的模块即可。下载速度慢的话换成国外的镜像源。

我还给大家准备了Python实现的五子棋游戏和超级玛丽源码,还有Python相关电子书和视频,都可以在左边扫码领取,没有软件或者不会安装也也可以。

二、爬虫流程

首先确定我们的需求是什么,以及数据来源分析。

通过开发者工具进行抓包分析,分析视频播放地址来自哪里。

得到视频播放url ,分析视频播放url 可以从哪里获取。

先获取所有视频的ID;
把这个ID传入视频数据包里面,就可以获取音频url地址以及视频标题;
音频url地址,可以进行保存数据;

代码实现步骤

发送请求 >>> 获取数据 >>> 解析数据 >>> 保存数据

发送请求, 对于视频数据包url地址
获取数据, 获取[服务器]返回的数据内容
解析数据, 提取我们想要的内容 视频url地址以及视频标题
保存数据

三、代码展示

导入模块

import requests  # 数据请求模块 
import pprint # 格式化输出模块
import re # 正则表达式

翻页分析请求url地址的变化规律,构建for循环。

for page in range(3, 11):print(f'===================正在爬取第{page}页的数据内容===================')url = f'https://v.****.com/g/all?set_id=31&order=hot&page={page}'headers = {'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.93 Safari/537.36'}response = requests.get(url=url, headers=headers)

\d+匹配多个数字 视频ID 都是数字 想要的数据就用()
通过re模块里面findall方法,从response.text 里面匹配查询 <a href="//v.huya.com/play/(\d+).html" class="video-wrap"数据内容。

video_id_list = re.findall('<a href="//v.****.com/play/(\d+)\.html" class="vide-wrap"', response.text)
for video_id in video_id_list:

1、发送请求

对于视频数据包url地址

字符串格式化的方法,就是把 video_id 传入 url里面。

ur1 = f'https://liveapi.****.com/moment/getMomentContent?videoId={video_id}&uid=&_=1639224652506'

headers请求头,作用伪装python代码,模拟成浏览器对于服务器发送请求。
某些网站 不加headers会被反爬, 被识别出来是爬虫程序,服务器不会给你返回数据。
headers字典数据类型,键值对形势一个键对应一个值,键和值之间是用冒号隔开的。

headers = {'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.93 Safari/537.36'}

通过requests这个模块里面get请求方法,对于url地址发送请求,并且携带上headers请求头进行伪装,最后response变量接收返回数据。

response = requests.get(url=url, headers=headers)

<Response [200]> response响应体对象 200 状态码,表示请求成功。
response.text 获取响应体的文本数据。

2、获取数据

获取[服务器]返回的数据内容。

返回json字典数据,对于后续解析数据会更加方便。

print(response.json())
pprint.pprint(response.json())

3、解析数据

提取我们想要的内容 视频url地址以及视频标题

对于字典提取数据, 有了解过吗?

就是根据冒号左边的内容,提取冒号右边内容。

title = response.json()['data']['moment']['title']
video_url = response.json()['data']['moment']['videoInfo']['definitions'][0]['url']

4、保存数据

需要对于视频url发送请求,获取二进制数据内容。
response.content获取响应体二进制数据内容。

video_content = requests.get(url=video_url, headers=headers).content

mode:保存方式
wb: w写入, b 二进制模式, wb 以二进制方式保存数据。

第一个 \ 转义字符 \表示 文件路径 video

with open('video\\' + title + '.mp4', mode='wb') as f:f.write(video_content)print(title, video_url)

完整代码

import requests  
import pprint 
import re 
#视频讲解我放在评论区置顶了
for page in range(3, 11):print(f'===================正在爬取第{page}页的数据内容===================')url = f'https://v.****.com/g/all?set_id=31&order=hot&page={page}'headers = {'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.93 Safari/537.36'}response = requests.get(url=url, headers=headers)video_id_list = re.findall('<a href="//v.****.com/play/(\d+)\.html" class="vide-wrap"', response.text)for video_id in video_id_list:ur1 = f'https://liveapi.****.com/moment/getMomentContent?videoId={video_id}&uid=&_=1639224652506'headers = {'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.93 Safari/537.36'}response = requests.get(url=url, headers=headers)title = response.json()['data']['moment']['title']video_url = response.json()['data']['moment']['videoInfo']['definitions'][0]['url']video_content = requests.get(url=video_url, headers=headers).contentwith open('video\\' + title + '.mp4', mode='wb') as f:f.write(video_content)print(title, video_url)

代码里面所有的地址我都屏蔽了,大家自己改成小脑斧的原名吧。

兄弟们,看完了点个赞支持一下呗~

下次才有动力更新的更快撒!

这篇关于Python爬虫:看看舞蹈区哪个女网红最给力,如果爬虫不是为了爬视频,那将毫无意义的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!


原文地址:https://blog.csdn.net/ooowwq/article/details/121995842
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.chinasem.cn/article/788405

相关文章

python进行while遍历的常见错误解析

《python进行while遍历的常见错误解析》在Python中选择合适的遍历方式需要综合考虑可读性、性能和具体需求,本文就来和大家讲解一下python中while遍历常见错误以及所有遍历方法的优缺点... 目录一、超出数组范围问题分析错误复现解决方法关键区别二、continue使用问题分析正确写法关键点三

使用Python实现调用API获取图片存储到本地的方法

《使用Python实现调用API获取图片存储到本地的方法》开发一个自动化工具,用于从JSON数据源中提取图像ID,通过调用指定API获取未经压缩的原始图像文件,并确保下载结果与Postman等工具直接... 目录使用python实现调用API获取图片存储到本地1、项目概述2、核心功能3、环境准备4、代码实现

8种快速易用的Python Matplotlib数据可视化方法汇总(附源码)

《8种快速易用的PythonMatplotlib数据可视化方法汇总(附源码)》你是否曾经面对一堆复杂的数据,却不知道如何让它们变得直观易懂?别慌,Python的Matplotlib库是你数据可视化的... 目录引言1. 折线图(Line Plot)——趋势分析2. 柱状图(Bar Chart)——对比分析3

Python模拟串口通信的示例详解

《Python模拟串口通信的示例详解》pySerial是Python中用于操作串口的第三方模块,它支持Windows、Linux、OSX、BSD等多个平台,下面我们就来看看Python如何使用pySe... 目录1.win 下载虚www.chinasem.cn拟串口2、确定串口号3、配置串口4、串口通信示例5

Python Pandas高效处理Excel数据完整指南

《PythonPandas高效处理Excel数据完整指南》在数据驱动的时代,Excel仍是大量企业存储核心数据的工具,Python的Pandas库凭借其向量化计算、内存优化和丰富的数据处理接口,成为... 目录一、环境搭建与数据读取1.1 基础环境配置1.2 数据高效载入技巧二、数据清洗核心战术2.1 缺失

利用Python实现Excel文件智能合并工具

《利用Python实现Excel文件智能合并工具》有时候,我们需要将多个Excel文件按照特定顺序合并成一个文件,这样可以更方便地进行后续的数据处理和分析,下面我们看看如何使用Python实现Exce... 目录运行结果为什么需要这个工具技术实现工具的核心功能代码解析使用示例工具优化与扩展有时候,我们需要将

Python+PyQt5实现文件夹结构映射工具

《Python+PyQt5实现文件夹结构映射工具》在日常工作中,我们经常需要对文件夹结构进行复制和备份,本文将带来一款基于PyQt5开发的文件夹结构映射工具,感兴趣的小伙伴可以跟随小编一起学习一下... 目录概述功能亮点展示效果软件使用步骤代码解析1. 主窗口设计(FolderCopyApp)2. 拖拽路径

Python使用Reflex构建现代Web应用的完全指南

《Python使用Reflex构建现代Web应用的完全指南》这篇文章为大家深入介绍了Reflex框架的设计理念,技术特性,项目结构,核心API,实际开发流程以及与其他框架的对比和部署建议,感兴趣的小伙... 目录什么是 ReFlex?为什么选择 Reflex?安装与环境配置构建你的第一个应用核心概念解析组件

Python将字符串转换为小写字母的几种常用方法

《Python将字符串转换为小写字母的几种常用方法》:本文主要介绍Python中将字符串大写字母转小写的四种方法:lower()方法简洁高效,手动ASCII转换灵活可控,str.translate... 目录一、使用内置方法 lower()(最简单)二、手动遍历 + ASCII 码转换三、使用 str.tr

Python处理超大规模数据的4大方法详解

《Python处理超大规模数据的4大方法详解》在数据的奇妙世界里,数据量就像滚雪球一样,越变越大,从最初的GB级别的小数据堆,逐渐演变成TB级别的数据大山,所以本文我们就来看看Python处理... 目录1. Mars:数据处理界的 “变形金刚”2. Dask:分布式计算的 “指挥家”3. CuPy:GPU