Python爬取往期股票数据,分析中奖规律!

快过年了,手头有点紧,但是作为一个男人,身上怎么能够没有大把钞票呢?

于是我决定用Python来分析一波股票,赢了会所嫩*,输了下海干活!

Python爬取往期股票数据,分析中奖规律!

好了,上面是我吹牛逼的,不过确实有小伙伴看了爬股票数据进行分析的教程中过,但是我还是不建议各位去碰这玩意,今天咱们就是纯纯的分享技术哈~

Python爬取往期股票数据,分析中奖规律!

准备工作

既然要去赚马内,咱们首先要获取往期的数据来进行分析,通过往期的规律来对当前进行预测,准不准我不知道,反正比人预测的准,不准也不要喷我,咱们是来交流技术的,不是来炒股的。

我们需要使用这些模块,通过pip安装即可。

后续使用的其它的模块都是Python自带的,不需要安装,直接导入使用即可。

requests:      爬虫数据请求模块
pyecharts:     数据分析 可视化模块
pandas:        数据分析 可视化模块里面的设置模块(图表样式)

 

获取数据部分

爬虫的基本流程

思路分析

采集什么数据?怎么采集?

首先我们找到数据来源,从network当中去找到数据所在的位置,这一步就不详细讲了。

代码实现

我们想要实现通过爬虫获取到数据,正常情况下有几个步骤:

  1. 发送请求
  2. 获取数据
  3. 解析数据
  4. 保存数据

接下来我们来看代码

代码展示

导入需要使用的模块

import requests     # 数据请求模块
import csv          # 表格模块

 

1、发送请求

通过response模块来访问需要获取数据的地址

url = 'https://stock.xueqiu.com/v5/stock/screener/quote/list.json?page={page}&size=30&order=desc&orderby=percent&order_by=percent&market=CN&type=sh_sz'
requests.get(url=url)

 

假设目标网址是你刚认识的妹子家,你能穿的破破烂烂,脏不溜秋的就进去吗?肯定得打扮一番,把自己伪装的人模狗样的才让你进去对不对,不然就被赶出来了。

同理,直接这么进去是不一定能获取到数据,所以需要使用 cookie 来伪装一下,cookie代表着用户身份信息。

当然光cookie是不够的,咱们再加上当前网页的 user-agent

伪装加好之后,咱们就能得到一个相应结果,先打印出来看看。

import requests  # 第三方模块
import csv

# 我录制了详细讲解的视频,以及源代码都在这个君羊708525271自取就好了
# 伪装
headers = {
    # 用户身份信息
    'cookie': 's=bq119wflib; device_id=90ec0683f24e4d1dd28a383d87fa03c5; xq_a_token=df4b782b118f7f9cabab6989b39a24cb04685f95; xqat=df4b782b118f7f9cabab6989b39a24cb04685f95; xq_r_token=3ae1ada2a33de0f698daa53fb4e1b61edf335952; xq_id_token=eyJ0eXAiOiJKV1QiLCJhbGciOiJSUzI1NiJ9.eyJ1aWQiOi0xLCJpc3MiOiJ1YyIsImV4cCI6MTY3MjE4Njc1MSwiY3RtIjoxNjcwNTAxMjA5MTEyLCJjaWQiOiJkOWQwbjRBWnVwIn0.iuLASkwB6LkAYhG8X8HE-M7AM0n0QUULimW1C4bmkko-wwnPv8YgdakTC1Ju6TPQLjGhMqHuSXqiWdOqVIjy_OMEj9L_HScDot-7kn63uc2lZbEdGnjyF3sDrqGBCpocuxTTwuSFuQoQ1lL7ZWLYOcvz2pRgCw64I0zLZ9LogQU8rNP-a_1Nc91V8moONFqPWD5Lt3JxqcuyJbmb86OpfJZRycnh1Gjnl0Aj1ltGa4sNGSMXoY2iNM8NB56LLIp9dztEwExiRSWlWZifpl9ERTIIpHFBq6L2lSTRKqXKb0V3McmgwQ1X0_MdNdLAZaLZjSIIcQgBU26T8Z4YBZ39dA; u=511670501221348; Hm_lvt_1db88642e346389874251b5a1eded6e3=1667994737,1670480781,1670501222; Hm_lpvt_1db88642e346389874251b5a1eded6e3=1670501922',

    # 浏览器的基本信息
    'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/108.0.0.0 Safari/537.36'
}

url = 'https://stock.xueqiu.com/v5/stock/screener/quote/list.json?page={page}&size=30&order=desc&orderby=percent&order_by=percent&market=CN&type=sh_sz'
    # 1. 发送请求
response = requests.get(url=url, headers=headers)

print(response)

 

Python爬取往期股票数据,分析中奖规律!

运行后出现 <Response [200]>求请求成功,出现404就是访问不到资源,一般是被反爬了。

所以这时候我们需要加一个 referer 防盗链参数进去

'referer: https://xueqiu.com/hq'

 

如果加了还不行,就是自己链接有问题了。

取数据的话 .json 就好了

import requests  # 第三方模块
import csv

# 伪装
headers = {
    # 用户身份信息
    'cookie': 's=bq119wflib; device_id=90ec0683f24e4d1dd28a383d87fa03c5; xq_a_token=df4b782b118f7f9cabab6989b39a24cb04685f95; xqat=df4b782b118f7f9cabab6989b39a24cb04685f95; xq_r_token=3ae1ada2a33de0f698daa53fb4e1b61edf335952; xq_id_token=eyJ0eXAiOiJKV1QiLCJhbGciOiJSUzI1NiJ9.eyJ1aWQiOi0xLCJpc3MiOiJ1YyIsImV4cCI6MTY3MjE4Njc1MSwiY3RtIjoxNjcwNTAxMjA5MTEyLCJjaWQiOiJkOWQwbjRBWnVwIn0.iuLASkwB6LkAYhG8X8HE-M7AM0n0QUULimW1C4bmkko-wwnPv8YgdakTC1Ju6TPQLjGhMqHuSXqiWdOqVIjy_OMEj9L_HScDot-7kn63uc2lZbEdGnjyF3sDrqGBCpocuxTTwuSFuQoQ1lL7ZWLYOcvz2pRgCw64I0zLZ9LogQU8rNP-a_1Nc91V8moONFqPWD5Lt3JxqcuyJbmb86OpfJZRycnh1Gjnl0Aj1ltGa4sNGSMXoY2iNM8NB56LLIp9dztEwExiRSWlWZifpl9ERTIIpHFBq6L2lSTRKqXKb0V3McmgwQ1X0_MdNdLAZaLZjSIIcQgBU26T8Z4YBZ39dA; u=511670501221348; Hm_lvt_1db88642e346389874251b5a1eded6e3=1667994737,1670480781,1670501222; Hm_lpvt_1db88642e346389874251b5a1eded6e3=1670501922',
    # 防盗链
    'referer: https://xueqiu.com/hq'
    # 浏览器的基本信息
    'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/108.0.0.0 Safari/537.36'
}

url = 'https://stock.xueqiu.com/v5/stock/screener/quote/list.json?page={page}&size=30&order=desc&orderby=percent&order_by=percent&market=CN&type=sh_sz'
    # 1. 发送请求
response = requests.get(url=url, headers=headers)

print(response.json())

 

Python爬取往期股票数据,分析中奖规律!

2、获取数据

什么是json数据?

以 {}/[] 所包裹起来的数据 {“”:“”, “”:“”}

除了 .json 还可以通过 .text 和 .content 来拿到数据,但是它们获取到的数据是一样。

.text 获取到的是字符串,文本内容。
.content 取到的是二进制数据,一般是图片/音频/视频内容。

json_data = response.json()

 

3、解析数据

解析数据就是提取数据,把我们想要的数据提取出来。

没学过字典的小伙伴,可以先学一下字典。

data_list = json_data['data']['list']
# data_list[0]
# data_list[1]
for i in range(0, len(data_list)):
    symbol = data_list[i]['symbol']
    name = data_list[i]['name']
    current = data_list[i]['current']
    chg = data_list[i]['chg']
    percent = data_list[i]['percent']
    current_year_percent = data_list[i]['current_year_percent']
    volume = data_list[i]['volume']
    amount = data_list[i]['amount']
    turnover_rate = data_list[i]['turnover_rate']
    pe_ttm = data_list[i]['pe_ttm']
    dividend_yield = data_list[i]['dividend_yield']
    market_capital = data_list[i]['market_capital']
    print(symbol, name, current, chg, percent, current_year_percent, volume, amount, turnover_rate, pe_ttm, dividend_yield, market_capital)

 

4、保存数据

csv_writer.writerow([symbol, name, current, chg, percent, current_year_percent, volume, amount, turnover_rate, pe_ttm, dividend_yield, market_capital])

 


爬虫部分就结束了,接下来看数据分析部分,文章不理解,我还录了视频讲解,视频以及完整代码在文末名片自取即可。

数据可视化分析

导入需要使用的模块

import pandas as pd         # 做表格数据处理模块 
from pyecharts.charts import Bar    # 可视化模块 
from pyecharts import options as opts   # 可视化模块里面的设置模块(图表样式)

 

读取数据

df = pd.read_csv('股票.csv')
x = list(df['股票名称'].values)
y = list(df['成交量'].values)
 
c = (
    Bar()
    .add_xaxis(x[:10])
    .add_yaxis("成交额", y[:10])
    .set_global_opts(
        xaxis_opts=opts.AxisOpts(axislabel_opts=opts.LabelOpts(rotate=-15)),
        title_opts=opts.TitleOpts(title="Bar-旋转X轴标签", subtitle="解决标签名字过长的问题"),
    )
    .render("成交量图表.html")

 

最后

今天的分享到这里就结束了,如果如果觉得有帮助的话,记得点赞收藏哈~

本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:Python爬取往期股票数据,分析中奖规律! - Python技术站

(0)
上一篇 2023年3月31日
下一篇 2023年3月31日

相关文章

  • 用Python来做一个简单的学生管理系统(附源码)

    小学妹说要毕业了,学了一学期Python等于没学,现在要做毕设做不出来,让我帮帮她,晚上去她家吃夜宵。 当时我心想,这不是分分钟的事情,还要去她家,男孩子晚上不要随便出门,要学会保护好自己,于是我花了十分钟给她写了一个发过去,这下不用去她家了~     代码实战 主要代码,完整代码素材、包括其它版本学生管理系统代码,也有录制好的视频讲解,第八行代码自取即可!…

    2023年3月31日
    00
  • 这个Python读取文件的方法,堪称天花板级别…

    序言 哈喽兄弟们,今天咱们来了解一下 fileinput 。 说到fileinput,可能90%的码农表示没用过,甚至没有听说过。 这不奇怪,因为在python界,既然open可以走天下,何必要fileinput呢? 但是,今天我还是要介绍fileinput这个方法,因为太奈斯了。 不止是香。是真香! 接下来,就跟着我,一起fileinput,对,就是这个f…

    Python开发 2023年4月2日
    00
  • 这将使你见过最全面的Python制作GUI学生管理系统教程

    表弟大学快毕业了,学了一个学期Python居然还不会写学生管理系统,真的给我丢脸啊,教他又不肯学,还让我直接给他写,我真想两巴掌上去,最终还是写了给他,谁让他是我表弟呢,关键时候还是得帮他一把!       写完了放在那也是放着,所以今天分享给大家吧! 话不多说,咱们直接开始吧!     代码解析 一、登录页面 1、定义登录类及初始化对象 首先导入咱们需要用…

    2023年4月2日
    00
  • 圣诞节快到了,教大家用Python画一个简单的圣诞树和烟花,送给那个她

    这不是圣诞节快到了,准备让让女朋友开心开心,也算是亲手做的,稍稍花了点心思。 话不多说,咱们直接来展示吧,学会了赶紧画给你的那个她吧! 本文分为两个大块,我们先来试试画圣诞树。 圣诞树 效果展示 代码展示 导入模块 import turtle as t from turtle import * import random as r import time  …

    Python开发 2023年4月2日
    00
  • Python实现下载一个URL图片文件到本地

    今天咱们来实现一下,如何用Python实现下载一个URL图片文件保存本地。 涉及知识点 文件读写 基础语法 字符串处理 # 我还给大家准备了这些资料:Python视频教程、100本Python电子书、基础、爬虫、数据分析、web开发、机器学习、人工智能、面试题、Python学习路线图、问题解答! # 都放在这个扣群啦:279199867   代码展示 imp…

    Python开发 2023年4月2日
    00
  • 用Python自动实现图表可视化操作,提高工作效率,又能有更多的时间摸鱼了~

    在数据分析过程中,一般提取数据库里面的数据时候,拿着表格数据反复思索,希望能够根据自己所想立马生成一张数据可视化的图表来更直观的呈现数据。 但想要进行数据可视化的时候,往往需要调用很多的库与函数,还需要数据转换以及大量的代码处理编写。这都是十分繁琐的工作,确实只为了数据可视化我们不需要实现数据可视化的工程编程,这都是数据分析师以及拥有专业的报表工具来做的事情…

    Python开发 2023年4月2日
    00
  • 如何让电脑永不息屏?Python:这事我熟,只需5行代码…

    最近新来的小老弟问我,按照公司规定,电脑只有十分钟就锁屏,但是他不想让电脑在空闲十分钟后锁屏。 于是我问他,是不是想挑战一下公司信息安全? 不过小老弟很机智,来了句公司信息安全大于天,他就是想让自己多学点知识 ~ 既然他都这么说了,我就勉为其难的教一下他吧! 电脑永不息屏的两种方法 1、电脑手动方式 一般我们让电脑不息屏,正常操作步骤为: 电脑桌面空白处点击…

    Python开发 2023年4月2日
    00
  • 文件太乱了?不要慌,教你用Python全自动整理

    文件太乱了?不要慌,教你用Python全自动整理到对应分类中~ 主要知识点 文件读写 基础语法 字符串处理 循环遍历 素材 先来看看我这乱七八糟的文件​ 这就看起来乱七八糟了,这要是手动整理,还好,哈哈~ 但是几百个上千个文件呢? 所以,还得是有个技能傍身才方便啊! 马上安排! 代码展示 # 我还给大家准备了海量资料:Python视频教程、100本Pytho…

    Python开发 2023年4月2日
    00
合作推广
合作推广
分享本页
返回顶部