一、数据爬取与整理

丁香园网站

1.2 爬取思路:

  1. 使用requests包发送get请求,获取响应的html页面(返回值类型为str)
  2. 扫描字符串使用正则表达式匹配出描述国内数据的html语句
  3. 去除多余字符并将匹配后结果整理成json文件

1.3 代码展示及文件说明:

import json
import re
import requests
import datetime

today = datetime.date.today().strftime('%Y%m%d')

def crawl_dxy_data():
    """爬取丁香园实时统计数据,保存在data目录下,以当前日期作为文件名,文件格式为json格式
    """
    response = requests.get('https://ncov.dxy.cn/ncovh5/view/pneumonia')  # 发送get请求
    print(response.status_code)  # 打印状态码

    try:
        url_text = response.content.decode()  # 获取响应的html页面
     # re.search()用于扫描字符串以查找正则表达式模式产生匹配项的第一个位置,然后返回相应的match对象
     # 在字符串a中,包含换行符\n,这种情况下:如果不适用re.S参数,则只在每一行内进行匹配,如果一行没有,就换下一行重新开始匹配
        url_content = re.search(r'window.getAreaStat = (.*?)}]}catch',   
                                url_text, re.S)                         
        texts = url_content.group()  # 获取匹配正则表达式的整体结果
        content = texts.replace('window.getAreaStat = ', '').replace('}catch', '')  # 去除多余字符
        json_data = json.loads(content)
        with open('data/' + today + '.json', 'w', encoding='UTF-8') as f:
            json.dump(json_data, f, ensure_ascii=False)
    except:
        print('<Response [%s]>' % response.status_code)

crawl_dxy_data()

说明:存储整理后数据的json文件保存在 ./data/ 文件夹下,内容如下
python爬虫:新冠疫情累计确诊数据爬取及数据可视化

二、数据可视化

2.1 可视化工具:

pyecharts接口手册

2.2 可视化代码展示

import json
import datetime

from pyecharts.charts import Map
from pyecharts import options as opts   # pyecharts接口手册:https://pyecharts.org/#/zh-cn/chart_api


# 读取原始文件
today = datetime.date.today().strftime('%Y%m%d')
datefile = 'data/' + today + '.json'
with open(datefile, 'r', encoding='UTF-8') as f:
    json_array = json.loads(f.read())

# 分析全国实时确诊数据: 'confirmedCount'字段
china_data = []
for province in json_array:
    china_data.append((province['provinceShortName'], province['confirmedCount']))
china_data = sorted(china_data, key=lambda x: x[1], reverse=True)   # reverse=True,表示降序

print(china_data)
# 全国疫情地图
# 定义每个字段的范围,以及每个字段的样式
pieces = [
    {'min': 10000, 'color': '#540d0d'},
    {'max': 9999, 'min': 1000, 'color': '#9c1414'},
    {'max': 999, 'min': 500, 'color': '#d92727'},
    {'max': 499, 'min': 100, 'color': '#ed3232'},
    {'max': 99, 'min': 10, 'color': '#f27777'},
    {'max': 9, 'min': 1, 'color': '#f7adad'},
    {'max': 0, 'color': '#f7e4e4'},
]
labels = [data[0] for data in china_data]
counts = [data[1] for data in china_data]
m = Map()
m.add('累计确诊', [list(z) for z in zip(labels, counts)], 'china')

# 系列配置项,可配置图元样式、文字样式、标签样式、电线样式等
m.set_series_opts(label_opts=opts.LabelOpts(font_size=12), is_show=False)
# 全局配置项,可配置标题、动画、坐标轴、图例等
# is_piecewise参数表示是否分段,is_show参数表示是否显示视觉映射配置
m.set_global_opts(title_opts=opts.TitleOpts(title='全国实时确诊数据', subtitle='数据来源:丁香园网站'),
                  legend_opts=opts.LegendOpts(is_show=False),
                  visualmap_opts=opts.VisualMapOpts(pieces=pieces, is_piecewise=True, is_show=True))   
# render()会生成本地html文件
filepath = './' + '新冠肺炎全国实时累计确诊数据' + today + '.html'
m.render(path=filepath)

说明:最终展示结果写入为html文件,保存在当前路径下,文件名为“新冠肺炎全国实时累计确诊数据.html”

2.3 可视化结果展示

python爬虫:新冠疫情累计确诊数据爬取及数据可视化