[python]沪深龙虎榜数据进一步处理,计算日后5日的涨跌幅

2023-10-31 01:30

本文主要是介绍[python]沪深龙虎榜数据进一步处理,计算日后5日的涨跌幅,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

沪深龙虎榜数据进一步处理,计算日后5日的涨跌幅

事前数据:

前面处理得到的csv文件

文件名前加入“[wait]”等待程序处理

python代码从雅虎股票历史数据api获取数据,计算后面5日的涨跌幅

雅虎数据api格式:

priceUrl = 'http://table.finance.yahoo.com/table.csv?s={%1}&d={%2}&e={%3}&f={%4}&g=d&a={%5}&b={%6}&c={%7}&ignore=.csv'
# %1:000001.sz
# END: %2:月-1 %3:日 %4:年
# STRAT: %5:月-1 %6:日 %7:年

事前数据截图:

计算后,再用excel的条件格式并另存为excel文件后截图:

代码:

  1 #coding=utf-8
  2 
  3 #读取'[wait]'开头的csv文件
  4 #copyright @ WangXinsheng
  5 #http://www.cnblogs.com/wangxinsheng/
  6 import os
  7 import gzip
  8 import re
  9 import http.cookiejar
 10 import urllib.request
 11 import urllib.parse
 12 import time
 13 import datetime
 14 
 15 def getOpener(head):
 16     # deal with the Cookies
 17     cj = http.cookiejar.CookieJar()
 18     pro = urllib.request.HTTPCookieProcessor(cj)
 19     opener = urllib.request.build_opener(pro)
 20     header = []
 21     for key, value in head.items():
 22         elem = (key, value)
 23         header.append(elem)
 24     opener.addheaders = header
 25     return opener
 26 
 27 def ungzip(data):
 28     try:        # 尝试解压
 29         print('正在解压.....')
 30         data = gzip.decompress(data)
 31         print('解压完毕!')
 32     except:
 33         print('未经压缩, 无需解压')
 34     return data
 35  
 36 #常量
 37 header = {
 38     #'Connection': 'Keep-Alive',
 39     'Accept': '*/*',
 40     'Accept-Language': 'zh-CN,zh;q=0.8',
 41     'User-Agent': 'Mozilla/5.0 (Windows NT 6.2) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/40.0.2214.111 Safari/537.36',
 42     'Accept-Encoding': 'gzip, deflate',
 43     'Host': 'yahoo.com',
 44     'Referer' : 'http://www.yahoo.com'
 45 }
 46 priceUrl = 'http://table.finance.yahoo.com/table.csv?\
 47 s={%1}&d={%2}&e={%3}\
 48 &f={%4}&g=d&a={%5}&b={%6}&c={%7}&ignore=.csv'
 49 # %1:000001.sz
 50 # END:   %2:月-1 %3:日-1 %4:年
 51 # STRAT: %5:月-1 %6:日 %7:年
 52 
 53 
 54 path=r'.'
 55 files = os.listdir(path)
 56 files.sort()
 57 out=[]
 58 
 59 for f in files:
 60     if(f.startswith('[wait]') and
 61        f.endswith('.csv')):
 62         #读取文件
 63         print('读取文件:'+path+'/'+f)
 64         
 65         f=open(path+'/'+f,'rt')
 66         infos = f.readlines()
 67         f.close()
 68 
 69         i = 0
 70         add = False
 71         for info in infos:
 72             if(i==0):
 73                 i=i+1
 74                 info = info.replace('\n','')+',"一天后","二天后","三天后","四天后","五天后"\n'
 75                 out.append(info)
 76                 continue
 77             elif(len(info.split(','))>9):
 78                 out.append(info)
 79                 continue
 80             else:
 81                 #确认需要取的数据范围
 82                 tmp = info.split(',')
 83                 try:
 84                     timeArray = time.strptime(tmp[0], "%Y-%m-%d")
 85                 except:
 86                     timeArray = time.strptime(tmp[0], "%Y/%m/%d")
 87                 timeStamp = int(time.mktime(timeArray))
 88                 fromDay = datetime.datetime.utcfromtimestamp(timeStamp)
 89                 fromDay = fromDay + datetime.timedelta(days = 1)
 90                 endDay = fromDay + datetime.timedelta(days = 15)
 91                 code = tmp[1].replace('"','').replace("'","")
 92                 if(code.startswith('6')):
 93                     code = code +'.ss'
 94                 else:
 95                     code = code +'.sz'
 96                 url = priceUrl.replace('{%1}',code).replace('{%2}',str(endDay.month-1))
 97                 url = url.replace('{%3}',str(endDay.day)).replace('{%4}',str(endDay.year))
 98                 url = url.replace('{%5}',str(fromDay.month-1)).replace('{%6}',str(fromDay.day))
 99                 url = url.replace('{%7}',str(fromDay.year))
100                 print('抓取URL: '+url)
101                 
102                 #通过雅虎获取价格
103                 dd = ''
104                 try:
105                     opener = getOpener(header)
106                     op = opener.open(url)
107                     data = op.read()
108                     data = ungzip(data)
109                     dd = data.decode()
110                 except:
111                     print('网络抓取失败')
112                     out.append(info)
113                     continue
114                 #计算涨跌幅百分比    
115                 if(dd!=''):
116                     dataInfo = dd.split('\n')
117                     j=0
118                     dayCount = 0
119                     startPrice = 0
120                     for x in range(len(dataInfo)-1,0,-1):
121                         #处理数据
122                         if(dataInfo[x]==''):
123                             continue
124                         #print(dataInfo[x])
125                         if(dayCount>5):
126                             break
127                         di = dataInfo[x]
128                         if(dayCount==0):
129                             startPrice = float(di.split(',')[4])
130                         elif(int(di.split(',')[5])!=0):
131                             add = True
132                             closeP = float(di.split(',')[4])
133                             info = info.replace('\n','')+',"'+str(round((closeP-startPrice)/startPrice*100,2))+'%['+str(closeP)+']"'
134                             #print(info)
135                         if(dayCount==0 or int(di.split(',')[5])!=0):
136                             dayCount=dayCount+1
137                             
138                 if(add):
139                     out.append(info+'\n')
140                 #print(out)
141                 continue
142         #输出
143         ff = open(path+'/'+f.name.replace('[wait]','[处理完了]'),'w')
144         for o in out:
145             ff.write(o)
146         ff.close()
147         print('处理完了\n文件地址:'+path+'/'+f.name.replace('[wait]','[处理完了]'))
148     else:
149         continue

 

转载于:https://www.cnblogs.com/wangxinsheng/p/4854378.html

这篇关于[python]沪深龙虎榜数据进一步处理,计算日后5日的涨跌幅的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/311889

相关文章

SpringBoot分段处理List集合多线程批量插入数据方式

《SpringBoot分段处理List集合多线程批量插入数据方式》文章介绍如何处理大数据量List批量插入数据库的优化方案:通过拆分List并分配独立线程处理,结合Spring线程池与异步方法提升效率... 目录项目场景解决方案1.实体类2.Mapper3.spring容器注入线程池bejsan对象4.创建

PHP轻松处理千万行数据的方法详解

《PHP轻松处理千万行数据的方法详解》说到处理大数据集,PHP通常不是第一个想到的语言,但如果你曾经需要处理数百万行数据而不让服务器崩溃或内存耗尽,你就会知道PHP用对了工具有多强大,下面小编就... 目录问题的本质php 中的数据流处理:为什么必不可少生成器:内存高效的迭代方式流量控制:避免系统过载一次性

Python的Darts库实现时间序列预测

《Python的Darts库实现时间序列预测》Darts一个集统计、机器学习与深度学习模型于一体的Python时间序列预测库,本文主要介绍了Python的Darts库实现时间序列预测,感兴趣的可以了解... 目录目录一、什么是 Darts?二、安装与基本配置安装 Darts导入基础模块三、时间序列数据结构与

Python正则表达式匹配和替换的操作指南

《Python正则表达式匹配和替换的操作指南》正则表达式是处理文本的强大工具,Python通过re模块提供了完整的正则表达式功能,本文将通过代码示例详细介绍Python中的正则匹配和替换操作,需要的朋... 目录基础语法导入re模块基本元字符常用匹配方法1. re.match() - 从字符串开头匹配2.

Python使用FastAPI实现大文件分片上传与断点续传功能

《Python使用FastAPI实现大文件分片上传与断点续传功能》大文件直传常遇到超时、网络抖动失败、失败后只能重传的问题,分片上传+断点续传可以把大文件拆成若干小块逐个上传,并在中断后从已完成分片继... 目录一、接口设计二、服务端实现(FastAPI)2.1 运行环境2.2 目录结构建议2.3 serv

C#实现千万数据秒级导入的代码

《C#实现千万数据秒级导入的代码》在实际开发中excel导入很常见,现代社会中很容易遇到大数据处理业务,所以本文我就给大家分享一下千万数据秒级导入怎么实现,文中有详细的代码示例供大家参考,需要的朋友可... 目录前言一、数据存储二、处理逻辑优化前代码处理逻辑优化后的代码总结前言在实际开发中excel导入很

通过Docker容器部署Python环境的全流程

《通过Docker容器部署Python环境的全流程》在现代化开发流程中,Docker因其轻量化、环境隔离和跨平台一致性的特性,已成为部署Python应用的标准工具,本文将详细演示如何通过Docker容... 目录引言一、docker与python的协同优势二、核心步骤详解三、进阶配置技巧四、生产环境最佳实践

Python一次性将指定版本所有包上传PyPI镜像解决方案

《Python一次性将指定版本所有包上传PyPI镜像解决方案》本文主要介绍了一个安全、完整、可离线部署的解决方案,用于一次性准备指定Python版本的所有包,然后导出到内网环境,感兴趣的小伙伴可以跟随... 目录为什么需要这个方案完整解决方案1. 项目目录结构2. 创建智能下载脚本3. 创建包清单生成脚本4

Python实现Excel批量样式修改器(附完整代码)

《Python实现Excel批量样式修改器(附完整代码)》这篇文章主要为大家详细介绍了如何使用Python实现一个Excel批量样式修改器,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一... 目录前言功能特性核心功能界面特性系统要求安装说明使用指南基本操作流程高级功能技术实现核心技术栈关键函

python获取指定名字的程序的文件路径的两种方法

《python获取指定名字的程序的文件路径的两种方法》本文主要介绍了python获取指定名字的程序的文件路径的两种方法,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要... 最近在做项目,需要用到给定一个程序名字就可以自动获取到这个程序在Windows系统下的绝对路径,以下