python自动爬取数据,制作简报,推送到个人微信

2024-03-10 13:50

本文主要是介绍python自动爬取数据,制作简报,推送到个人微信,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

一、需求场景

每天早上需要从后台查询统计前一日的销售情况,并将结果发送至微信群。由于样式固定,基本都是重复操作,于是用python编写了一个脚本,定时查询、统计并推送。基本流程如下:

  • 定时刷新后台保持登录状态

  • 每天早8点查询后台数据

  • 统计分析并推送至微信

下面是相关脚本,稍微修改即可直接使用。

二、登录保持和数据采集脚本


import requests
import threading
import time
from datetime import datetimedef visit_url(url, method, data, cookie):headers = {'Cookie': cookie,'Content-Type': 'application/x-www-form-urlencoded;charset=UTF-8'}if method == "GET":response = requests.get(url, headers=headers)elif method == "POST":response = requests.post(url, headers=headers, data=data)return response.textdef keep_login(url, cookie, interval):while True:print(f"{datetime.now()} : 访问 {url} 以保持登录状态")visit_url(url, "GET", None, cookie)time.sleep(interval)def visit_url_periodically(url, method, data, cookie, target_time):while True:current_time = datetime.now().strftime("%H:%M")current_time_obj = datetime.strptime(current_time, "%H:%M")target_time_obj = datetime.strptime(target_time, "%H:%M")time_diff = (current_time_obj - target_time_obj).secondsif time_diff < 60:print(f"{datetime.now()} : 访问 {url} 并将结果写入 output.txt")response_text = visit_url(url, method, data, cookie)with open("output.txt", "w") as file:file.write(response_text)time.sleep(60)  # 每隔一分钟检查一次是否到达目标时间def main():# 设置网址和cookie,根据实际情况修改url1 = "http://xxx/main"url2 = "http://xxx/finance/getSellList"cookie = "JSESSIONID=CC99B8FB01ED15EAFA5DA612CC217CDB"# 设置循环间隔时间(秒)interval = 300  # 5分钟# 创建并启动保持登录的线程login_thread = threading.Thread(target=keep_login, args=(url1, cookie, interval))login_thread.start()# 准备访问url2的参数,数据查询参数,可通过浏览器F12查看修改url2_data = {'timeStart': '2023-11-27','timeEnd': '2023-11-27','id': '233','mode': '1','start': '0','length': '15'}# 创建并启动定时访问url2的线程visit_thread = threading.Thread(target=visit_url_periodically, args=(url2, "POST", url2_data, cookie, "08:00"))visit_thread.start()if __name__ == "__main__":main()

keep_login函数为登录状态保持脚本,visit_url_periodically函数为数据采集脚本。修改main函数中的url1、url2、cookie、url2_data后可直接使用。

采集的数据为json格式,示例如下:

三、数据统计分析脚本 

import json
import requests# 从output.txt读取json文件
with open('output.txt', 'r') as file:data = json.load(file)# 格式化编排内容
formatted_content = '【昨日销量简报】\n'
for item in data['data']:formatted_content += f"{item['name']}: {item['count']}, {item['income']}\n"# 发送编排的内容
# yourtoken 获取方式见底部介绍
url = f"https://cglapp.top/api/wxpush/txt?token={yourtoken}&msg={formatted_content}"
response = requests.get(url, verify=False)  # 忽略证书问题print(response.text)

Windows设置定时任务,定时执行上述脚本,即可推送简报至微信。

四、配置定时运行

  1. 打开“控制面板”。

  2. 在控制面板中,选择“管理工具”。

  3. 在“管理工具”中,找到并打开“任务计划程序”。

  4. 在任务计划程序窗口中,选择“创建基本任务”或“创建任务”(具体名称可能略有不同)。

  5. 在弹出的窗口中,输入任务的名称和描述,然后点击“下一步”。

  6. 选择触发器,选择“每天”,并设置执行时间为早上8:05。然后点击“下一步”。

  7. 选择“启动程序”作为操作,然后在“程序/脚本”处输入Python解释器的路径(通常是类似于C:\Python\python.exe的路径),并在“参数”处输入要运行的Python脚本的路径。然后点击“下一步”。

  8. 在最后的确认页面上,检查任务设置是否正确,然后点击“完成”。

  9. 每天早上8:05执行Python脚本的定时任务设置完成。

五、个人微信配置方式

【教程】文本消息推送服务接入说明

这篇关于python自动爬取数据,制作简报,推送到个人微信的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/794430

相关文章

Python对接支付宝支付之使用AliPay实现的详细操作指南

《Python对接支付宝支付之使用AliPay实现的详细操作指南》支付宝没有提供PythonSDK,但是强大的github就有提供python-alipay-sdk,封装里很多复杂操作,使用这个我们就... 目录一、引言二、准备工作2.1 支付宝开放平台入驻与应用创建2.2 密钥生成与配置2.3 安装ali

Spring Security 单点登录与自动登录机制的实现原理

《SpringSecurity单点登录与自动登录机制的实现原理》本文探讨SpringSecurity实现单点登录(SSO)与自动登录机制,涵盖JWT跨系统认证、RememberMe持久化Token... 目录一、核心概念解析1.1 单点登录(SSO)1.2 自动登录(Remember Me)二、代码分析三、

Python获取浏览器Cookies的四种方式小结

《Python获取浏览器Cookies的四种方式小结》在进行Web应用程序测试和开发时,获取浏览器Cookies是一项重要任务,本文我们介绍四种用Python获取浏览器Cookies的方式,具有一定的... 目录什么是 Cookie?1.使用Selenium库获取浏览器Cookies2.使用浏览器开发者工具

Python实现批量提取BLF文件时间戳

《Python实现批量提取BLF文件时间戳》BLF(BinaryLoggingFormat)作为Vector公司推出的CAN总线数据记录格式,被广泛用于存储车辆通信数据,本文将使用Python轻松提取... 目录一、为什么需要批量处理 BLF 文件二、核心代码解析:从文件遍历到数据导出1. 环境准备与依赖库

MyBatis-Plus 自动赋值实体字段最佳实践指南

《MyBatis-Plus自动赋值实体字段最佳实践指南》MyBatis-Plus通过@TableField注解与填充策略,实现时间戳、用户信息、逻辑删除等字段的自动填充,减少手动赋值,提升开发效率与... 目录1. MyBATis-Plus 自动赋值概述1.1 适用场景1.2 自动填充的原理1.3 填充策略

Python Web框架Flask、Streamlit、FastAPI示例详解

《PythonWeb框架Flask、Streamlit、FastAPI示例详解》本文对比分析了Flask、Streamlit和FastAPI三大PythonWeb框架:Flask轻量灵活适合传统应用... 目录概述Flask详解Flask简介安装和基础配置核心概念路由和视图模板系统数据库集成实际示例Stre

Python实现PDF按页分割的技术指南

《Python实现PDF按页分割的技术指南》PDF文件处理是日常工作中的常见需求,特别是当我们需要将大型PDF文档拆分为多个部分时,下面我们就来看看如何使用Python创建一个灵活的PDF分割工具吧... 目录需求分析技术方案工具选择安装依赖完整代码实现使用说明基本用法示例命令输出示例技术亮点实际应用场景扩

C#监听txt文档获取新数据方式

《C#监听txt文档获取新数据方式》文章介绍通过监听txt文件获取最新数据,并实现开机自启动、禁用窗口关闭按钮、阻止Ctrl+C中断及防止程序退出等功能,代码整合于主函数中,供参考学习... 目录前言一、监听txt文档增加数据二、其他功能1. 设置开机自启动2. 禁止控制台窗口关闭按钮3. 阻止Ctrl +

java如何实现高并发场景下三级缓存的数据一致性

《java如何实现高并发场景下三级缓存的数据一致性》这篇文章主要为大家详细介绍了java如何实现高并发场景下三级缓存的数据一致性,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 下面代码是一个使用Java和Redisson实现的三级缓存服务,主要功能包括:1.缓存结构:本地缓存:使

在MySQL中实现冷热数据分离的方法及使用场景底层原理解析

《在MySQL中实现冷热数据分离的方法及使用场景底层原理解析》MySQL冷热数据分离通过分表/分区策略、数据归档和索引优化,将频繁访问的热数据与冷数据分开存储,提升查询效率并降低存储成本,适用于高并发... 目录实现冷热数据分离1. 分表策略2. 使用分区表3. 数据归档与迁移在mysql中实现冷热数据分