数据采集实战(六)– 新浪新闻

1. 概述

新闻是我们了解外界的重要渠道,以前,我们一般通过报纸和电视来获取新闻,那时候,获取新闻不仅有一定的成本,效率还不高。

而如今,获取新闻的途径太多太方便了,大量重复的新闻充斥着各大平台,获取新闻已经没有什么成本,问题变成了过滤和鉴别新闻的可信程度。

下面用 【新浪新闻】 作为采集对象,抛砖引玉,演示下新闻从采集到分析的整个过程。

2. 采集流程

主要流程分为4个步骤:
image.png

2.1 采集

从新浪滚动新闻页面中,找出获取新闻的API,然后,并发的采集新闻。
这里为了简单起见,主要采集了新闻标题和摘要信息。

# -*- coding: utf-8 -*-

import requests
import csv
import time
import os
import threading
import math

host = "https://feed.mix.sina.com.cn/api/roll/get?pageid=153&lid=2509&k=&num=50&page={}"


class spiderThread(threading.Thread):
    def __init__(self, fname, delay, start_page, end_page):
        threading.Thread.__init__(self)
        self.fname = fname
        self.delay = delay
        self.start_page = start_page
        self.end_page = end_page

    def run(self):
        for page in range(self.start_page, self.end_page):
            time.sleep(self.delay)
            url = host.format(page)
            rows = _parse_html_content(url)
            _save_data(self.fname, rows)
            print("thead: {} 已采集 第【{}】页的数据".format(self.fname, page))


def spider(start_page=1, pages=50, concurrency=2):
    """ 采集数据
    并发采集 sina 滚动新闻数据

    Parameters:
      start_page - 采集开始的页数,默认从第1页开始采集
      pages - 采集的页数,默认采集500页
      concurrency - 并发采集的数量,默认4个线程采集

    Returns:
      采集结果写入文件
    """

    if pages < 0 or concurrency < 0:
        print("pages or concurrency must more than 0")
        return

    threads = []
    now_str = time.strftime("%Y-%m-%d--%H-%M-%S", time.localtime())
    delta = math.ceil((pages - start_page + 1) / concurrency)
    for i in range(concurrency):
        end_page = delta + start_page
        if end_page > pages:
            end_page = pages + 1

        t = spiderThread("{}-{}".format(now_str, i + 1), 2, start_page, end_page)
        threads.append(t)
        t.start()

        start_page = end_page

    for t in threads:
        t.join()

    print("采集结束")


def _parse_html_content(url):
    """ parse html to csv row like: oid, intime, title, media_name, intro
    """
    response = requests.get(url)
    data = response.json()
    data = data["result"]["data"]
    rows = []
    for d in data:
        # print(d["oid"])
        # print(d["intime"])
        # print(d["title"])
        # print(d["media_name"])
        # print(d["intro"])
        rows.append([d["oid"], d["intime"], d["title"], d["media_name"], d["intro"]])

    return rows


def _save_data(filename, rows):
    fp = os.path.join("./data", filename + ".csv")
    print("fname {}: rows {}".format(filename, len(rows)))
    with open(fp, "a", encoding='utf-8') as f:
        writer = csv.writer(f)
        writer.writerows(rows)

主要函数是:def spider(start_page=1, pages=50, concurrency=2)
可以设置采集的起始/结束页,以及并发采集的线程数。

新浪滚动新闻最多只提供了最近50页的新闻,大概4000多条新闻。

采集之后,默认会在 data文件夹下生成采集结果的 csv 文件(几个线程采集,就生成几个csv)

2.2 清理

清理数据主要将多线程采集的所有csv文件合并成一个,同时去重和按照时间排序。

# -*- coding: utf-8 -*-

import pandas as pd
import os
import time


def clean(data_dir="./data"):
    """ 清洗数据
    合并所有采集的数据文件,去除重复数据和不需要的字段

    Parameters:
      data - 采集数据的文件夹

    Returns:
      清理后的结果写入文件
    """

    data = _read_all_data(data_dir)
    data = _uniq_and_order(data)

    _write_clean_data(data_dir, data)


def _read_all_data(data_dir):
    all_data = []
    for f in os.listdir(data_dir):
        fp = os.path.join(data_dir, f)
        if os.path.isdir(fp):
            continue

        data = pd.read_csv(
            fp, names=["oid", "intime", "title", "media_name", "intro"], header=None,
        )
        all_data.append(data)

    return pd.concat(all_data, ignore_index=True)


def _uniq_and_order(data):
    data = data.drop_duplicates(keep="first")
    data = data.drop(columns=["oid", "intime", "media_name", "intro"])
    # data = data.sort_values(by=["intime"], ascending=False)
    return data


def _write_clean_data(data_dir, data):
    clean_data_dir = os.path.join(data_dir, "clean")
    if not os.path.exists(clean_data_dir):
        os.makedirs(clean_data_dir)

    now_str = time.strftime("%Y-%m-%d--%H-%M-%S", time.localtime())
    data.to_csv(
        os.path.join(clean_data_dir, now_str + ".csv"), index=False, header=None
    )

清理之后,所有新闻合并在一个文件中,只保留了【新闻标题】用来分析。

2.3 分词

新闻标题的文字是没有规律的,所以分析之前需要先分词。

# -*- coding: utf-8 -*-

import jieba.posseg as pseg
import pandas as pd

import os
import time


def split_word(fp, data_dir="./data"):
    """对标题进行分词

    Parameters:
      data_dir - 采集数据的文件夹
      fp - 待分词的文件

    Returns:
      分词后的结果写入文件
    """

    mdata = {}
    with open(fp, "r", encoding="utf-8") as f:
        total = len(f.readlines())
        count = 0

        f.seek(0)
        for line in f:
            count += 1
            print("解析进度[{}/{}]...".format(count, total))
            _jieba(line, mdata)

    total = len(mdata)
    count = 0
    data_list = []
    for word in mdata.keys():
        count += 1
        print("写入进度[{}/{}]...".format(count, total))
        data_list.append([word, mdata[word][0], mdata[word][1]])

    data = pd.DataFrame(data_list, columns=["单词", "词性", "数量"])
    _write_split_data(data_dir, data)


def _jieba(s, mdata):
    words = pseg.cut(s, HMM=True)
    for word, flag in words:
        if _check_flag(flag):
            if word not in mdata.keys():
                mdata[word] = [flag, 0]

            mdata[word][1] += 1

    return mdata


def _write_split_data(data_dir, data):
    split_data_dir = os.path.join(data_dir, "jieba")
    if not os.path.exists(split_data_dir):
        os.makedirs(split_data_dir)

    now_str = time.strftime("%Y-%m-%d--%H-%M-%S", time.localtime())
    data.to_csv(os.path.join(split_data_dir, now_str + ".csv"), index=False)


def _check_flag(flag):
    flags = ["n"]  # n-名词类,a-形容词类 v-动词类

    for fg in flags:
        if flag.startswith(fg):
            return True

    return False

这里使用分词使用是 【结巴分词】库,并且只保留了新闻标题中的 【名词】。

2.4 分析绘图

最后是分析结果,为了快速获取新闻的有效信息,这一步必不可少。
这里只分析了【新闻标题】中的名词,所以这里就做了两张图,一张是高频词的柱状图,一张是词云图。

# -*- coding: utf-8 -*-

import pandas as pd
import os
import wordcloud

from prettytable import PrettyTable
import matplotlib
import matplotlib.pyplot as plt

# 为了显示中文
matplotlib.rcParams["font.sans-serif"] = ["Microsoft YaHei Mono"]
matplotlib.rcParams["axes.unicode_minus"] = False

cn_font_path = "D:\miniconda3\envs\databook\Lib\site-packages\matplotlib\mpl-data\fonts\ttf\Microsoft-Yahei-Mono.ttf"


def analysis(fp, data_dir="./data"):
    """分析数据
    根据分词结果分析结果
    """

    data = pd.read_csv(fp)
    # 过滤关键词长度为1的数据
    data = data[data["单词"].str.len() > 1]

    # 创建文件夹
    analy_data_dir = os.path.join(data_dir, "analy")
    if not os.path.exists(analy_data_dir):
        os.makedirs(analy_data_dir)

    # 显示前N个关键词
    N = 20
    _topN_table(data, N)

    # 高频词柱状图比较
    _topN_bar_graph(data, N, analy_data_dir)

    # 词云 图
    _word_cloud(data, analy_data_dir)


def _topN_table(data, n):
    tbl = PrettyTable()

    data = data.sort_values(by=["数量"], ascending=False)

    tbl.field_names = data.columns.values.tolist()
    tbl.add_rows(data.head(n).values.tolist())

    print(tbl)


def _topN_bar_graph(data, n, d):
    data = data.sort_values(by=["数量"], ascending=False)
    data = data.head(n)

    y = list(data["数量"])
    plt.bar(range(n), height=y, tick_label=range(1, n + 1), color=["b", "c", "g", "m"])
    plt.xticks(range(n), data["单词"])

    fig = plt.gcf()
    fig.set_size_inches(15, 5)

    plt.savefig(os.path.join(d, "bar.png"))


def _word_cloud(data, d):
    w = wordcloud.WordCloud(
        width=800, height=600, background_color="white", font_path=cn_font_path
    )

    # 词频大于N的单词才展示
    N = 5
    data = data[data["数量"] > N]

    dic = dict(zip(list(data["单词"]), list(data["数量"])))
    w.generate_from_frequencies(dic)

    w.to_file(os.path.join(d, "word_cloud.png"))

注意,这里为了显示中文,我引入了自己的字体(Microsoft-Yahei-Mono.ttf),你也可以换成任何能够显示中文的字体。

3. 总结

其实,上面的功能主要就是找出新闻中的高频词,从而可以看看公众最近关注最多的是哪方面。
虽然简单,但是麻雀虽小五脏俱全,整个流程是完备的,有兴趣的话,每个流程中的细节可以继续丰富。

代码运行的最终结果如下:(运行时间:2022-07-29 中午12点多,新闻是不断更新的,不同时间采集的话,运行结果会不一样)
bar.png

word_cloud.png

4. 注意事项

爬取数据只是为了研究学习使用,本文中的代码遵守:

  1. 如果网站有 robots.txt,遵循其中的约定
  2. 爬取速度模拟正常访问的速率,不增加服务器的负担
  3. 只获取完全公开的数据,有可能涉及隐私的数据绝对不碰

本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:数据采集实战(六)– 新浪新闻 - Python技术站

(0)
上一篇 2023年4月2日 下午5:17
下一篇 2023年4月2日

相关文章

  • 【manim动画教程】–相机

    相机(Camera)在二维的场景下使用不多,一般在3D场景中提及的比较多。相机相当于我们看动画的视角,简单来理解的话,相当于我们的眼睛(实际情况会复杂一些,相机还有其他一些辅助功能)。 默认的相机焦点在屏幕的中心位置,相机默认是以俯视的视角查看所有的元素。之前的介绍的常用动画效果和高级动画效果,都没有对相机进行调整过,所以,是通过移动和变换各个元素来实现动画…

    python 2023年4月19日
    00
  • 【manim】之圆规动画

    概要 前端时间做尺规作图相关的动画的时候,封装了一个圆规的动画,顺便研究了下 manim 库的动画函数。 manim 本身就是做动画的库,所以,基于它封装自定义的动画非常方便。 动画原理 对于单个的元素,manim本身就提供了非常多的动画函数。比如:创建/消除的动画,移动元素的动画,旋转元素的动画等等,具体可以参考: Animations 如果是做一些简单的…

    2023年3月31日
    00
  • 【manim动画教程】–目录(完结)

    manim是一个生成数学教学视频的动画引擎。它用编程的方式创建精美的数学动画,让数学更加易懂。 本教程简单介绍了 manim 的基本使用方式,基于 v0.17.2 版本 manim 安装 manim是基于python语言开发的开源框架,是由 3blue1brown 开发的。 本来是他们自己用来制作数学视频用的,因为其友好的API和漂亮的UI效果,在开源之后,…

    python 2023年4月22日
    00
  • 【pandas基础】–数据读取

    数据读取是第一步,只有成功加载数据之后,后续的操作才有可能。 pandas可以读取和导入各种数据格式的数据,如CSV,Excel,JSON,SQL,HTML等,不需要手动编写复杂的读取代码。 1. 各类数据源 pandas提供了导入各类常用文件格式数据的接口,这里介绍3种最常用的加载数据的接口。 1.1 从 CSV 文件读取数据 读取csv文件的接口:rea…

    python 2023年5月4日
    00
  • 【manim动画教程】–高级动画效果

    在常用的动画效果中,介绍了一些元素的创建,销毁,移动和变换的方法,这些方法都是针对单个动画的。如果需要多个动画互相关联,或者元素需要有更复杂的运动方式,那么,仅仅依靠常用的动画效果可能就无法满足要求了。 本篇的高级动画效果主要介绍一些更加灵活的元素运动方式,如何组合多个动画,以及如何联动多个动画的方式。掌握了这些方法,就能够表达出更加复杂的数学几何动画。 1…

    python 2023年4月17日
    00
  • 【pandas基础】–核心数据结构

    pandas中用来承载数据的两个最重要的结构分别是: Series:相当于增强版的一维数组 DataFrame:相当于增强版的二维数组 pandas最大的优势在于处理表格类数据,如果数据维度超过二维,一般我们会使用另一个 python的库 numpy。 本篇主要介绍这两种核心数据结构的创建方式。 1. Series pandas的Series是一种带有标签索…

    python 2023年5月8日
    00
  • 【manim动画教程】–常用动画效果

    manim的主要功能就是制作动画,因此它提供了各类丰富的动画效果,本篇主要介绍其中最常用的几种动画效果。 至于特殊的动画效果,以及自定义动画效果的方法以后再另外介绍。 1. 创建效果 展示某个元素或者文字时,一下子就全显示出来会显得比较突兀,通过创建效果的动画,让各个元素的出现更加的自然。常用的创建效果动画主要有:Create,Write和FadeIn三个方…

    python 2023年4月17日
    00
  • 【manim动画教程】– 坐标系

    没有引入坐标系之前,在绘制图形时,也有一个隐含的坐标系,它和屏幕的像素相关。 比如,我们之前示例中的各个图形,屏幕的中心就是坐标原点([0, 0]),横轴坐标的范围大概是 [-3.5, 3.5],纵轴的坐标范围大概是 [-4, 4],这个范围与设置的视频分辨率有关,分辨率设置的越高的话,坐标范围越大。 不知是否还记得,之前的文章中绘制的线或者多边形(比如这个…

    python 2023年4月18日
    00
合作推广
合作推广
分享本页
返回顶部