python爬取数据并将数据写入execl表中

2024-05-16 01:52

本文主要是介绍python爬取数据并将数据写入execl表中,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

    • 概要

概要

提示:python爬取数据并将数据写入execl表中,仅供学习使用,代码是很久前的,可能执行不通,自行参考学习。

# -*- coding: utf-8 -*-
import datetime  # 日期库
import requests  # 进行网络请求
import xlwt  # 与excel相关的操作
from lxml import etree  # 引入xpath库,方便定位元素
import time  # 进行访问频率控制
import random  # 随机数生成
import math  # 数学库# main
def main(word, filename):word = wordfilename = filenameSavepath = "./test/" + filename + ".xls"  # 存储路径datalist = getdata(word)      # 获取爬取的关键词数据savedata(datalist, Savepath)  # 保存的数据和路径参数# 获取html源码
def ask_url(url):html = ""# 进行伪装头信息,防止416错误,模拟浏览器头部信息,向豆瓣服务器发送消息(最好加上cookie)headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) ""Chrome/83.0.4103.116 Safari/537.36 "}try:response = requests.get(url, headers=headers,timeout=10)  # 用户代理,表示告诉豆瓣服务器,我们是什么类型的机器、浏览器(本质上是告诉浏览器,我们可以接收什么水平的文件内容)time.sleep(random.randint(1, 3))  # 每隔1-3s执行一次请求html = response.content  # 获取网页的html源代码print("请求访问成功")except requests.exceptions.RequestException as e:print("超时")  # 10秒请求无响应则显示超时print(e)return html# 获取站长工具网站关键词总数
def num(word):word = word  # 关键词url = 'http://rank.chinaz.com/' + word     # 站长工具查询关键词URLnum = ask_url(url)                         # 获取网页源码num1 = etree.HTML(num)                     # 解析网页try:global num2   # 全局变量 num2num2 = num1.xpath('/html/body/div[3]/div[7]/div[1]/div[1]/span/i[1]/text()')[0]  # 通过xpath获取网页关键词总数的值print(num2)                           # 输出获取的值num2 = int(num2)                      # 将值类型转化为intnum2 = str(num2)                      # 将值类型转化为strprint('关键词数:' + num2)              # 打印关键词数num2 = int(num2)if num2 <= 200:                       # if num2<=200,原值返回num2 = int(num2)elif num2 >= 1000:                    # if num2>=1000,赋值为1num2 = 1else:num2 = 200                        # else num2=200except:print("该网站没有关键词")                # if没有获取到值则显示无关键词pass                                  # 用pass防止报错return num2                               # 返回最终关键词总数num2# 获取爬取的关键词
def getdata(word):word = word      # URLnum2 = num(word)  # 获取关键词总数num2 = num2 / 20  # 获取页数num3 = math.ceil(num2)   # 去除小数取整num3 = str(num3)  # 转化为strprint('页面数:' + num3) # 输出总页数num3 = int(num3)Datalist = []  # 用来存储已经经过处理的信息print("{:^20}\t{:^12}\t{:^12}\t".format('关键词', '指数', '排名'))   # 打印表头for i in range(0, num3):  # 在1-num3页内爬取关键词的信息i = i + 1             # i + 1 用于翻页操作i = str(i)url = 'http://rank.chinaz.com/' + word + '-0---0-' + i  # 这个根据网页的翻页特点 站长工具网址翻页后参数变化是每页的数字+1data = ask_url(url)  # 获取到源代码data = data.decode('utf-8')    # 将数据进行utf-8编码# 从源代码中提取信息if data != "":html_data = etree.HTML(data)  # 解析网页# 使用xpath定位到全部要获取的内容   然后在这个里面循环提取div_list = html_data.xpath('//ul[@class="_chinaz-rank-new5b"]')for item in div_list:data_item = []  # 在循环里面建立一个空的列表存储关键词一页的全部数据# 关键词movie_rank = item.xpath('li[1]//a[1]//text()')[0]data_item.append(movie_rank)# PC指数movie_name = item.xpath('li[4]//text()')[0]data_item.append(movie_name)# 排名paiming = item.xpath('li[2]//a//text()')[0]data_item.append(paiming)print("{:^20}\t{:^8}\t{:^8}\t".format(movie_rank, movie_name, paiming))# 先将一行的数据存储在data_item中,再将data_item存入DatalistDatalist.append(data_item)return Datalist# 将html获取的信息存入Excel表格中
def savedata(Datalist, Savapath):col = ("关键词", "PC指数", "排名")  # Excel的表头 也就是列数house_list = xlwt.Workbook(encoding="utf-8", style_compression=0)  # 创建workbook对象worksheet = house_list.add_sheet("同行网站关键词", cell_overwrite_ok=True)  # 新建工作区,设为可覆盖for i in range(0, 3):  # 写入表头 一共3列worksheet.write(0, i, col[i])  # 写入表头 一共3列try:for i in range(0, num2):  # 写入数据  也就是行数 num2为总行数print("正在写入第%d条数据" % (i + 1))item = Datalist[i]  # 获取的数据的索引for j in range(0, 3):  # 列数worksheet.write(i + 1, j, item[j])  # i + 1是从第1行开始写 第0行被表头占用了  item[j]将数据按照数据的索引进行写入house_list.save(Savapath)  # 存储except:print('存入Execl失败')pass# 读取文本中关键词
def lead_keywords():print('>> 正在导入关键词列表..')try:with open('./url_list.txt', 'r', encoding='gbk') as f:  # 打开文本keywords = f.readlines()         # 按行读取关键词except:with open('./url_list.txt', 'r', encoding='utf-8') as f:keywords = f.readlines()print(keywords)print('>> 正在导入关键词列表成功!')return keywords# 主函数
def seomain():words = lead_keywords()  # 从文本中导入批量URLfor word in words:       # 循环URLword.strip()         # 对URL去除空格word = word.replace("\n", "")  # 对URL去除换行符star_time = time.time()   # 开始时间print(word)               # 输出当前执行的URLfilename = str(word + datetime.datetime.now().strftime('%Y%m%d-%H-%M-%S'))  # 形成文件名(URL+系统时间)try:main(word, filename)    # 执行main()函数,将(URL,文件名)传入main()函数end_time = time.time()  # 结束时间print("爬取完毕! 一共耗时: %.2f秒" % (end_time - star_time))  # 打印耗时except:passprint('已写入Execl到程序当前目录下,文件名为系统时间.xls')time.sleep(10)   # 停止10秒# 程序入口
if __name__ == '__main__':seomain()  # 执行主函数

这篇关于python爬取数据并将数据写入execl表中的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/993537

相关文章

Django开发时如何避免频繁发送短信验证码(python图文代码)

《Django开发时如何避免频繁发送短信验证码(python图文代码)》Django开发时,为防止频繁发送验证码,后端需用Redis限制请求频率,结合管道技术提升效率,通过生产者消费者模式解耦业务逻辑... 目录避免频繁发送 验证码1. www.chinasem.cn避免频繁发送 验证码逻辑分析2. 避免频繁

批量导入txt数据到的redis过程

《批量导入txt数据到的redis过程》用户通过将Redis命令逐行写入txt文件,利用管道模式运行客户端,成功执行批量删除以Product*匹配的Key操作,提高了数据清理效率... 目录批量导入txt数据到Redisjs把redis命令按一条 一行写到txt中管道命令运行redis客户端成功了批量删除k

精选20个好玩又实用的的Python实战项目(有图文代码)

《精选20个好玩又实用的的Python实战项目(有图文代码)》文章介绍了20个实用Python项目,涵盖游戏开发、工具应用、图像处理、机器学习等,使用Tkinter、PIL、OpenCV、Kivy等库... 目录① 猜字游戏② 闹钟③ 骰子模拟器④ 二维码⑤ 语言检测⑥ 加密和解密⑦ URL缩短⑧ 音乐播放

python panda库从基础到高级操作分析

《pythonpanda库从基础到高级操作分析》本文介绍了Pandas库的核心功能,包括处理结构化数据的Series和DataFrame数据结构,数据读取、清洗、分组聚合、合并、时间序列分析及大数据... 目录1. Pandas 概述2. 基本操作:数据读取与查看3. 索引操作:精准定位数据4. Group

Python pandas库自学超详细教程

《Pythonpandas库自学超详细教程》文章介绍了Pandas库的基本功能、安装方法及核心操作,涵盖数据导入(CSV/Excel等)、数据结构(Series、DataFrame)、数据清洗、转换... 目录一、什么是Pandas库(1)、Pandas 应用(2)、Pandas 功能(3)、数据结构二、安

Python使用Tenacity一行代码实现自动重试详解

《Python使用Tenacity一行代码实现自动重试详解》tenacity是一个专为Python设计的通用重试库,它的核心理念就是用简单、清晰的方式,为任何可能失败的操作添加重试能力,下面我们就来看... 目录一切始于一个简单的 API 调用Tenacity 入门:一行代码实现优雅重试精细控制:让重试按我

Python安装Pandas库的两种方法

《Python安装Pandas库的两种方法》本文介绍了三种安装PythonPandas库的方法,通过cmd命令行安装并解决版本冲突,手动下载whl文件安装,更换国内镜像源加速下载,最后建议用pipli... 目录方法一:cmd命令行执行pip install pandas方法二:找到pandas下载库,然后

SpringBoot多环境配置数据读取方式

《SpringBoot多环境配置数据读取方式》SpringBoot通过环境隔离机制,支持properties/yaml/yml多格式配置,结合@Value、Environment和@Configura... 目录一、多环境配置的核心思路二、3种配置文件格式详解2.1 properties格式(传统格式)1.

Python实现网格交易策略的过程

《Python实现网格交易策略的过程》本文讲解Python网格交易策略,利用ccxt获取加密货币数据及backtrader回测,通过设定网格节点,低买高卖获利,适合震荡行情,下面跟我一起看看我们的第一... 网格交易是一种经典的量化交易策略,其核心思想是在价格上下预设多个“网格”,当价格触发特定网格时执行买

Python标准库之数据压缩和存档的应用详解

《Python标准库之数据压缩和存档的应用详解》在数据处理与存储领域,压缩和存档是提升效率的关键技术,Python标准库提供了一套完整的工具链,下面小编就来和大家简单介绍一下吧... 目录一、核心模块架构与设计哲学二、关键模块深度解析1.tarfile:专业级归档工具2.zipfile:跨平台归档首选3.