价值十万的代码之二---手把手教你获取数据篇
上篇文章 一份代码帮我赚了10万 中,小酱承诺如果大家点赞数超过30个,我会继续分享如何利用个股研报数据来进行分析。小酱是个信守承诺的小伙子,既然答应了大家,就一定会做到的。
我们要利用个股研报数据,肯定是会结合个股行情数据的,所以首先要获取股票数据,本篇我跟大家分享一下我是如何获取个股行情数据的。
选定目标
现在获取股票行情数据的渠道有好多,比较正规的途径就是各种量化平台的 API 接口,主要分两类:
- 有条件免费或者可以在平台上使用数据的量化平台,例如聚宽(https://www.joinquant.com/)、Tushare平台(http://tushare.org/)。
- 大型财经平台的量化平台,例如同花顺的 MindGO(http://quant.10jqka.com.cn/platform/html/home.html)、东方财富的 Choice 数据量化(http://quantapi.eastmoney.com/)。
第一种渠道,如果你在他们平台上去用 Python 写交易策略模型进行回测很方便,平台上是使用的 Jupyter Notebook 来编辑程序,但是如果想获取行情数据到本地,自己自由支配就需要通过他们提供的 API 接口来获取数据,而 API 接口通常对数据量或者访问频次有限制,导致我们很难随心所欲地获取数据。
第二种渠道,也可以在平台上进行回测,想要获取数据到本地基本上是需要交费成为会员才可以。
为了图免费方便,大多数人选择第一种方式,在他们平台上去写各种策略模型或者程序实现自己的逻辑,对模型进行回测。
对于我个人来说,我选择了第三种方式,不依靠免费平台的数据,也不花钱去购买数据,而是靠个人能力获取所有数据到本地存储。因为我不喜欢依赖别人的平台,万一哪天突然垮掉了或者收费了呢?在有选择的前提下,我更不愿意花费巨额资金去购买,虽然研究这个一方面也是为了赚钱,但是能省点是点,不是吗?
大家应该也猜到了我所谓的“个人能力”是啥,无非就是靠技术手段去获取,虽然麻烦点,但是很香啊!
我的主要目标网站就是国内比较大的媒体网站的财经版块,有 搜狐财经(https://q.stock.sohu.com/)、新浪财经(http://vip.stock.finance.sina.com.cn/mkt/)、网易财经(http://quotes.money.163.com/stock)和东方财富网。从这些财经版块的页面去找到个股行情数据,然后将其爬取到本地。
这里面我自己长期固定的目标是网易财经,因为到目前为止,获取数据比较稳定,并且个股的信息比较丰富。下面我就分享一下我获取个股每日行情数据的方法。
分析目标页面
我们获取数据的第一步是找到目标页面,既然是获取股票数据,我们肯定是要找到网易财经的股票页面:http://quotes.money.163.com/stock。
然后在这个页面的左侧导航栏中找到“涨跌排行”栏目,点击选择“沪深A股”,如下图所示:
我们就来到了最新的行情数据页面,网址如下:
http://quotes.money.163.com/old/#query=EQA&DataType=HS_RANK&sort=PERCENT&order=desc&count=24&page=
0
如果当前时间是交易时间,那么这个页面显示的是实时行情,如果当前时间是非交易时间,那么这个页面显示的是最近交易日的收盘行情。我们来看看这个页面:
如果单纯看这个网页的网址,或许你会想是不是我替换一下 count 和 page 这两个参数就可以获取数据了。但是实际上替换 count 管用,可以改变页面每页的记录数,而 page 参数,无论你填什么值,页面都不会有变化。所以我们先放弃这个点,去看看页面的请求,看能不能发现“天机”。
逐条扫描请求,我们会发现有一个请求是这样的:
看起来这个返回结果是我们所需要的行情数据。找到它之后,接下来我们再来看看请求参数:
1 2 3 4 5 6 7 8 | host:请求域名page:请求页码 query:未知 fields:获取股票数据的列 sort:股票数据排序方式 order:排序顺序 count:每页显示数目 type:请求类型
|
对于我们来说,我们只需要关心 page、fields、count 这几个参数就行,其他的就按照页面的来,每次请求带上一样的值就好。而对于 fields 这个参数,我觉得好不容易爬一次数据,肯定数据列越全越好,所以全部都要吧,小孩才做选择呢!我们点击页面下面的翻页页码,可以观察到 page 参数是变化的,因此我们可以根据 page 的变化来获取每一页的数据,从而获取到所有股票行情数据。
代码实现
第一步,肯定是发送请求,获取返回数据:
1 2 3 4 5 6 | defget_data(self,url): response=requests.get(url,headers=self.ua_header,verify=False) content=response.content.decode('unicode_escape') returncontent
|
接着,我会对请求到的数据做一些自定义的特殊处理,因为返回的数据信息当中可能会包含有“:”、“”“”、“{}”之类的符号,从而影响到后续的数据 json 解析,所以我必须想办法先干掉他们:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 | defdeal_json_invaild(self,data): data=data.replace("\n","\n").replace("\r","\r").replace("\n\r","\n\r") \ .replace("\r\n","\r\n") \ .replace("\t","\t") data=data.replace('":"','&&GSRGSR&&')\ .replace('":',"%%GSRGSR%%") \ .replace('","',"$$GSRGSR$$")\ .replace(',"',"~~GSRGSR~~") \ .replace('{"',"@@GSRGSR@@") \ .replace('"}',"**GSRGSR**") # print(data) data=data.replace('"',r'\"') \ .replace('&&GSRGSR&&','":"')\ .replace('%%GSRGSR%%','":')\ .replace('$$GSRGSR$$','","')\ .replace("~~GSRGSR~~",',"')\ .replace('@@GSRGSR@@','{"')\ .replace('**GSRGSR**','"}') # print(data) returndata
|
注意,这里面是我平时跑程序时会经常遇到的一些特殊字符的总结(血淋淋的教训换来的),你以后可能会遇到其他的特殊字符,往这里面添加规则就行。
再接下来,我们就要进入解析数据的环节了,解析比较简单,直接转换成 json 就行:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 | defparse_data(self,data): result_obj=json.loads(data) obj={} obj['pagecount']=result_obj['pagecount'] obj['time']=result_obj['time'] obj['total']=result_obj['total'] list_str=result_obj['list'] stock_list=[] iflist_str: data_list=list(list_str) forsindata_list: # print(s) stock={} stock['query_code']=s['CODE'] stock['code']=s['SYMBOL'] stock['name']=s['SNAME'] if'PRICE'ins.keys(): stock['close_price']=self.trans_float(s['PRICE']) else: stock['close_price']=0.00 if'HIGH'ins.keys(): stock['top_price']=self.trans_float(s['HIGH']) else: stock['top_price']=0.00 if'LOW'ins.keys(): stock['low_price']=self.trans_float(s['LOW']) else: stock['low_price']=0.00 if'OPEN'ins.keys(): stock['open_price']=self.trans_float(s['OPEN']) else: stock['open_price']=0.00 if'YESTCLOSE'ins.keys(): stock['last_price']=self.trans_float(s['YESTCLOSE']) else: stock['last_price']=0.00 if'UPDOWN'ins.keys(): stock['add_point']=self.trans_float(s['UPDOWN']) else: stock['add_point']=0.00 if'PERCENT'ins.keys(): stock['add_percent']=self.trans_float(s['PERCENT']) else: stock['add_percent']=0.00 if'HS'ins.keys(): stock['exchange_rate']=self.trans_float(s['HS']) else: stock['exchange_rate']=0.00 if'VOLUME'ins.keys(): stock['volumn']=self.trans_float(s['VOLUME']) else: stock['volumn']=0.00 if'TURNOVER'ins.keys(): stock['turnover']=self.trans_float(s['TURNOVER']) else: stock['turnover']=0.00 if'TCAP'ins.keys(): stock['market_value']=self.trans_float(s['TCAP']) else: stock['market_value']=0.00 if'MCAP'ins.keys(): stock['flow_market_value']=self.trans_float(s['MCAP']) else: stock['flow_market_value']=0.00 stock_list.append(stock) obj['stock']=stock_list returnobj
|
至于这里面每一项的含义,大家可以参照页面的列去一一对应。
解析完数据后,我们就要将数据持久化,我这里选择 mysql 存储数据,便于后续分析使用:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 | definsert_db(self,obj_list,day): try: iflen(obj_list): insert_attrs=['day','query_code','code','name','close_price','top_price','low_price','open_price','last_price','add_point','add_percent','exchange_rate','volumn','turnover','market_value','flow_market_value'] insert_tuple=[] forobjinobj_list: insert_tuple.append((day, obj['query_code'], obj['code'], obj['name'], obj['close_price'], obj['top_price'], obj['low_price'], obj['open_price'], obj['last_price'], obj['add_point'], obj['add_percent'], obj['exchange_rate'], obj['volumn'], obj['turnover'], obj['market_value'], obj['flow_market_value'])) values_sql=['%s'forvininsert_attrs] attrs_sql='('+','.join(insert_attrs)+')' values_sql=' values('+','.join(values_sql)+')' sql='insert into %s'%'stock_info' sql=sql+attrs_sql+values_sql try: print(sql) foriinrange(0,len(insert_tuple),20000): self.cur.executemany(sql,tuple(insert_tuple[i:i+20000])) self.conn.commit() exceptpymysql.Errorase: self.conn.rollback() error='insertMany executemany failed! ERROR (%s): %s'%(e.args[0],e.args[1]) print(error) exceptException: #输出异常信息 traceback.print_exc()
|
送佛送到西,顺便附上建表语句吧:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 | CREATE TABLE `stock_info` ( `id` int(11) unsigned NOT NULL AUTO_INCREMENT, `day` varchar(64) NOT NULL DEFAULT '' COMMENT '日期', `query_code` varchar(20) DEFAULT '', `code` varchar(10) DEFAULT NULL COMMENT '股票代码', `name` varchar(64) DEFAULT NULL COMMENT '名称', `close_price` double DEFAULT NULL COMMENT '收盘价', `top_price` double DEFAULT NULL COMMENT '最高价', `low_price` double DEFAULT NULL COMMENT '最低价', `open_price` double DEFAULT NULL COMMENT '开盘价', `last_price` double DEFAULT NULL COMMENT '前收盘价', `add_point` double DEFAULT NULL COMMENT '涨跌额', `add_percent` double DEFAULT NULL COMMENT '涨跌幅', `exchange_rate` double DEFAULT NULL COMMENT '换手率', `volumn` double DEFAULT NULL COMMENT '成交量', `turnover` double DEFAULT NULL COMMENT '成交金额', `amplitude` double DEFAULT NULL COMMENT '振幅', `market_value` double DEFAULT NULL COMMENT '总市值', `flow_market_value` double DEFAULT NULL COMMENT '流通市值', `flag` int(11) NOT NULL DEFAULT '0', PRIMARY KEY (`id`), KEY `day` (`day`,`query_code`), KEY `code_name` (`code`,`name`) ) ENGINE=InnoDB AUTO_INCREMENT=3953 DEFAULT CHARSET=utf8;
|
运行程序,你就能在数据库中看到行情数据了。如果不想每天手动运行的话,可以写个定时,每天在收盘后自动运行,当然丢服务器上更好了。这样每天获取当天最新的行情数据,日积月累,你就可以获取到从今以后的股票行情数据了。
总结
本文以网易财经为例,手把手分享怎样获取股票行情数据,希望对大家有帮助。但是大家记住一点,获取数据只是自己分析研究使用,千万不要违反我们的职业道德哦。
看到这里,大家可能会想:这只是获取一天的行情数据,并没有历史数据,如果我今天要使用历史数据分析,那不是扑街啦?
这个想法是对的,大家不要着急,本文的数据只是后续步骤的前提,先给我点个在看
,我会继续分享如何获取所有股票的历史行情数据。
示例代码:(https://github.com/JustDoPython/python-examples/tree/master/xianhuan/stockinfo)
以上是 价值十万的代码之二---手把手教你获取数据篇 的全部内容,
来源链接:
utcz.com/a/132223.html