一、数据爬取与整理
丁香园网站
1.2 爬取思路:
- 使用requests包发送get请求,获取响应的html页面(返回值类型为str)
- 扫描字符串使用正则表达式匹配出描述国内数据的html语句
- 去除多余字符并将匹配后结果整理成json文件
1.3 代码展示及文件说明:
import json import re import requests import datetime today = datetime.date.today().strftime('%Y%m%d') def crawl_dxy_data(): """爬取丁香园实时统计数据,保存在data目录下,以当前日期作为文件名,文件格式为json格式 """ response = requests.get('https://ncov.dxy.cn/ncovh5/view/pneumonia') # 发送get请求 print(response.status_code) # 打印状态码 try: url_text = response.content.decode() # 获取响应的html页面 # re.search()用于扫描字符串以查找正则表达式模式产生匹配项的第一个位置,然后返回相应的match对象 # 在字符串a中,包含换行符\n,这种情况下:如果不适用re.S参数,则只在每一行内进行匹配,如果一行没有,就换下一行重新开始匹配 url_content = re.search(r'window.getAreaStat = (.*?)}]}catch', url_text, re.S) texts = url_content.group() # 获取匹配正则表达式的整体结果 content = texts.replace('window.getAreaStat = ', '').replace('}catch', '') # 去除多余字符 json_data = json.loads(content) with open('data/' + today + '.json', 'w', encoding='UTF-8') as f: json.dump(json_data, f, ensure_ascii=False) except: print('<Response [%s]>' % response.status_code) crawl_dxy_data()
说明:存储整理后数据的json文件保存在 ./data/ 文件夹下,内容如下
二、数据可视化
2.1 可视化工具:
pyecharts接口手册
2.2 可视化代码展示
import json import datetime from pyecharts.charts import Map from pyecharts import options as opts # pyecharts接口手册:https://pyecharts.org/#/zh-cn/chart_api # 读取原始文件 today = datetime.date.today().strftime('%Y%m%d') datefile = 'data/' + today + '.json' with open(datefile, 'r', encoding='UTF-8') as f: json_array = json.loads(f.read()) # 分析全国实时确诊数据: 'confirmedCount'字段 china_data = [] for province in json_array: china_data.append((province['provinceShortName'], province['confirmedCount'])) china_data = sorted(china_data, key=lambda x: x[1], reverse=True) # reverse=True,表示降序 print(china_data) # 全国疫情地图 # 定义每个字段的范围,以及每个字段的样式 pieces = [ {'min': 10000, 'color': '#540d0d'}, {'max': 9999, 'min': 1000, 'color': '#9c1414'}, {'max': 999, 'min': 500, 'color': '#d92727'}, {'max': 499, 'min': 100, 'color': '#ed3232'}, {'max': 99, 'min': 10, 'color': '#f27777'}, {'max': 9, 'min': 1, 'color': '#f7adad'}, {'max': 0, 'color': '#f7e4e4'}, ] labels = [data[0] for data in china_data] counts = [data[1] for data in china_data] m = Map() m.add('累计确诊', [list(z) for z in zip(labels, counts)], 'china') # 系列配置项,可配置图元样式、文字样式、标签样式、电线样式等 m.set_series_opts(label_opts=opts.LabelOpts(font_size=12), is_show=False) # 全局配置项,可配置标题、动画、坐标轴、图例等 # is_piecewise参数表示是否分段,is_show参数表示是否显示视觉映射配置 m.set_global_opts(title_opts=opts.TitleOpts(title='全国实时确诊数据', subtitle='数据来源:丁香园网站'), legend_opts=opts.LegendOpts(is_show=False), visualmap_opts=opts.VisualMapOpts(pieces=pieces, is_piecewise=True, is_show=True)) # render()会生成本地html文件 filepath = './' + '新冠肺炎全国实时累计确诊数据' + today + '.html' m.render(path=filepath)
说明:最终展示结果写入为html文件,保存在当前路径下,文件名为“新冠肺炎全国实时累计确诊数据.html”
2.3 可视化结果展示
本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:python爬虫:新冠疫情累计确诊数据爬取及数据可视化 - Python技术站