【0基础学爬虫】爬虫基础之自动化工具 Playwright 的使用

【0基础学爬虫】爬虫基础之自动化工具 Playwright 的使用0

大数据时代,各行各业对数据采集的需求日益增多,网络爬虫的运用也更为广泛,越来越多的人开始学习网络爬虫这项技术,K哥爬虫此前已经推出不少爬虫进阶、逆向相关文章,为实现从易到难全方位覆盖,特设【0基础学爬虫】专栏,帮助小白快速入门爬虫,本期为自动化工具 playwright 的使用。

概述

上期文章中讲到了自动化工具 Selenium 的基本使用方法,也介绍了 Selenium 的优缺点。Selenium的功能非常强大,支持所有现代浏览器。但是 Selenium 使用起来十分不方便,我们需要提前安装好浏览器,然后下载对应版本的驱动文件,当浏览器更新后驱动文件也得随之更新。如果想要大规模且长期的采集数据,那么部署 Selenium 时环境配置会是一个大问题。因此本期我们将介绍一款更加好用的自动化工具 Playwright 。

Playwright 的使用

介绍

Playwright是一个用于自动化Web浏览器测试和Web数据抓取的开源库。它由Microsoft开发,支持Chrome、Firefox、Safari、Edge和WebKit浏览器。Playwright的一个主要特点是它能够在所有主要的操作系统(包括Windows、Linux和macOS)上运行,并且它提供了一些强大的功能,如跨浏览器测试、支持无头浏览器、并行执行测试、元素截图和模拟输入等。它主要有以下优势:

  1. 兼容多个浏览器,而且所有浏览器都使用相同的API。
  2. 速度快、稳定性高,即使在大型、复杂的Web应用程序中也可以运行。
  3. 支持无头浏览器,因此可以在没有可见界面的情况下运行测试,从而提高测试效率。
  4. 提供了丰富的 API,以便于执行各种操作,如截图、模拟输入、拦截网络请求等。

安装

使用 Playwright 需要 Python版本在3.7以上。

安装 Playwright 可以直接使用 pip 工具:

pip install playwright

安装完成后需要进行初始化操作,安装所需的浏览器。

playwright install

执行上述指令时,Playwright 会自动安装多个浏览器(Chromium、Firefox 和 WebKit)并配置驱动,所以速度较慢。

使用

Playwright 支持同步与异步两种模式,这里分开来进行讲解。

同步

使用 Playwright 时可以选择启动安装的三种浏览器(Chromium、Firefox 和 WebKit)中的一种。

from playwright.sync_api import sync_playwright

# 调用sync_playwright方法,返回浏览器上下文管理器
with sync_playwright() as p:
    # 创建谷歌浏览器示例,playwright默认启动无头模式,设置headless=False,即关闭无头模式
    browser = p.chromium.launch(headless=False)
    # 新建选项卡
    page = browser.new_page()
    # 跳转到目标网址
    page.goto("http://baidu.com")
    # 获取页面截图
    page.screenshot(path='example.png')
    # 打印页面的标题,也就是title节点中的文本信息
    print(page.title())
    # 关闭浏览器
    browser.close()
# 输出:百度一下,你就知道

1

可以看到,Playwright 的使用也比较简单,语法比较简洁,而且浏览器的启动速度以及运行速度也很快。

异步

异步代码的编写方法与同步基本一致,区别在于同步调用的是 sync_playwright,异步调用的是 async_playwright。最终运行效果与同步一致。

import asyncio
from playwright.async_api import async_playwright

async def main():
    async with async_playwright() as p:
        browser = await p.chromium.launch(headless=False)
        page = await browser.new_page()
        await page.goto("http://baidu.com")
        # 打印网页源代码
        print(await page.content())
        await browser.close()

asyncio.run(main())

代码生成

Playwright 提供了代码生成功能,这个功能可以对我们在浏览器上的操作进行录制并生成代码,它可以有效提高程序的编写效率。代码生成功能需要使用 Playwright 命令行中的 codegen实现,codegen 命令存在如下主要参数:

-o :将生成的脚本保存到指定文件

--target :生成的语言,默认为 Python

--save-trace :记录会话的跟踪并将其保存到文件中

-b :要使用的浏览器,默认为 chromium

--timeout :设置页面加载的超时时间

--user-agent :指定UA

--viewport-size :指定浏览器窗口大小

我们在命令行执行命令:playwright codegen -o script.py

执行命令后会弹出一个 chromium 浏览器与脚本窗口,当我们在浏览器上进行操作时,脚本窗口会根据我们的操作生成对应代码。当我们操作结束后,关闭浏览器,在当前目录下会生成一个 script.py 文件,该文件中就是我们在进行浏览器操作时,Playwright 录制的代码。我们运行该文件,就会发现它在复现我们之前的操作。

2

代码生成功能的实用性其实较为一般,它只能实现比较简单的操作,当遇到复杂操作时,生成的代码就容易出现问题。最好的方式是使用代码生成功能生成部分操作的代码,然后再手动去修改它生成的代码。

隔离

上一步中,我们使用代码生成功能生成了一段代码,我们会发现这段代码中使用到了一个 new_context 方法,通过这个方法创建了一个 content ,然后再去进行其它操作。这个 new_content 方法其实是为了创建一个独立的全新上下文环境,它的目的是为了防止多个测试用例并行时各个用例间不受干扰,当一个测试用例异常时不会影响到另一个。

browser = playwright.chromium.launch()
context = browser.new_context()
page = context.new_page()

定位器

Playwright 提供了多种定位器来帮助开发中定位元素。

page.get_by_role() :通过显式和隐式可访问性属性进行定位。

page.get_by_text() :通过文本内容定位。

page.get_by_label() :通过关联标签的文本定位表单控件。

page.get_by_placeholder() :按占位符定位输入。

page.get_by_alt_text() :通过替代文本定位元素,通常是图像。

page.get_by_title() :通过标题属性定位元素。

page.get_by_test_id() :根据data-testid属性定位元素(可以配置其他属性)。

page.locator():拓展选择器,可以使用 CSS 选择器进行定位

使用定位器最好的方式就是上文中讲到的利用代码生成功能来生成定位代码,然后手动去修改,这里就不做尝试。

选择器

Playwright 支持 CSS、Xpath 和一些拓展选择器,提供了一些比较方便的使用规则。

CSS 选择器

# 匹配 button 标签
page.locator('button').click()
# 根据 id 匹配,匹配 id 为 container 的节点
page.locator('#container').click()
# CSS伪类匹配,匹配可见的 button 按钮 
page.locator("button:visible").click()
# :has-text 匹配任意内部包含指定文本的节点
page.locator(':has-text("Playwright")').click()
# 匹配 article 标签内包含 products 文本的节点
page.locator('article:has-text("products")').click()
# 匹配 article 标签下包含类名为 promo 的 div 标签的节点
page.locator("article:has(div.promo)").click()

Xpath

page.locator("xpath=//button").click()
page.locator('xpath=//div[@class="container"]').click()

其它

# 根据文本匹配,匹配文本内容包含 name 的节点
page.locator('text=name').click()
# 匹配文本内容为 name 的节点
page.locator("text='name'").click()
# 正则匹配
page.locator("text=/name\s\w+word").click()
# 匹配第一个 button 按钮
page.locator("button").locator("nth=0").click()
# 匹配第二个 button 按钮
page.locator("button").locator("nth=-1").click()
# 匹配 id 为 name 的元素
page.locator('id=name')

等待

当进行 click 、fill 等操作时,Playwright 在采取行动之前会对元素执行一系列可操作性检测,以确保这些行动能够按预期进行。

如对元素进行 click 操作之前,Playwright 将确保:

元素附加到 DOM

元素可见

元素是稳定的,因为没有动画或完成动画

元素接收事件,因为没有被其他元素遮挡

元素已启用

即使 Playwright 已经做了充分准备,但是也并不完全稳定,在实际项目中依旧容易出现因页面加载导致事件没有生效等问题,为了避免这些问题,需要自行设置等待。

# 固定等待1秒
page.wait_for_timeout(1000)
# 等待事件
page.wait_for_event(event)
# 等待加载状态
page.get_by_role("button").click()
page.wait_for_load_state()

事件

添加/删除事件

from playwright.sync_api import sync_playwright


def print_request_sent(request):
    print("Request sent: " + request.url)


def print_request_finished(request):
    print("Request finished: " + request.url)


with sync_playwright() as p:
    browser = p.chromium.launch(headless=False)
    page = browser.new_page()
	# 添加事件 发起请求时打印URL
    page.on("request", print_request_sent)
    # 请求完成时打印URL
    page.on("requestfinished", print_request_finished)
    page.goto("https://baidu.com")
    # 删除事件
    page.remove_listener("requestfinished", print_request_finished)
    browser.close()

反检测

在 Selenium 的使用中,我们讲到了自动化工具容易被网站检测,也提供了一些绕过检测的方案。这里我们介绍一下 Playwright 的反检测方案。

https://bot.sannysoft.com/ 为例,我们分别测试正常模式与无头模式下的检测结果。

正常模式:

3

无头模式:

4

可以看到,正常模式下 WebDriver 一栏报红,而无头模式下更是惨不忍睹,基本上所有特征都被检测到了。这些还只是最基本的检测机制,自动化工具的弱点就暴露的很明显了。

与 Selenium 一样,绕过检测主要还是针对网站的检测机制来处理,主要就是在页面加载之前通过执行 JS 代码来修改一些浏览器特征。以无头模式为例:

from playwright.sync_api import sync_playwright

with open('./stealth.min.js', 'r') as f:
    js = f.read()

with sync_playwright() as p:
    browser = p.chromium.launch()
    # 添加 UserAgent
    page = browser.new_page(
        user_agent='Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/112.0.0.0 Safari/537.36'
    )
    # 执行 JS 代码
    page.add_init_script(js)
    page.goto("https://bot.sannysoft.com/")
    page.screenshot(path='example.png')
    browser.close()

这里与 Selenium 反检测方案一样,执行 stealth.min.js 来隐藏特征( stealth.min.js 的来源与介绍参考上期文章)。最终结果如下图:

5

可以看到,与真实浏览器访问基本一致了。

总结

与 Selenium 相比,Playwright 最大的优点就是不需要手动安装驱动,而且它拥有更好的性能与更多的功能。因此 在爬虫领域,Playwright 是更好的选择。

原文链接:https://www.cnblogs.com/ikdl/p/17360960.html

本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:【0基础学爬虫】爬虫基础之自动化工具 Playwright 的使用 - Python技术站

(0)
上一篇 2023年4月27日
下一篇 2023年4月30日

相关文章

  • 详解python实现多张多格式图片转PDF并打包成exe

    标题 首先我们需要给这篇攻略添加一个标题,以便读者能够清楚知道我们要介绍的内容: 详解python实现多张多格式图片转PDF并打包成exe攻略 简介 在正式开始介绍实现方法之前,我们需要先简单介绍一下这个攻略的目的和优点: 这篇攻略主要介绍如何使用Python将多张多格式的图片文件转换成PDF文件,并将其打包成exe文件,方便在其他电脑上使用。Python作…

    python 2023年6月5日
    00
  • Python中的八大核心语句你知道几个呢?

    当谈及Python的核心语句时,通常指的是Python基础语法中最重要的几个语句。以下是Python中的八大核心语句: 1. if语句 if语句用于判断一个条件是否成立,如果成立则执行一段代码,否则执行另一段代码。 if score >= 60: print("You passed!") else: print("You …

    python 2023年6月5日
    00
  • python3 lambda表达式详解

    Python3 Lambda表达式详解 Lambda表达式是Python中的一种匿名函数,它可以在不定义函数的情况下快速定义一个函数。本文将详细讲解Python3 Lambda表达式的使用方法,包括如何定义Lambda函数、如何使用Lambda函数等内容。 定义Lambda函数 以下是一个使用Lambda表达式定义函数的示例: f = lambda x: x…

    python 2023年5月15日
    00
  • Python实现一个简单的QQ截图

    Python实现一个简单的QQ截图攻略 前言 QQ截图是广大用户在使用电脑的时候常用的功能之一,本文将介绍如何借助Python实现一个简单的QQ截图程序。 程序流程 程序的主要流程如下: 使用Python的Pillow库截取屏幕上的全屏或指定区域; 跳转至QQ窗口,并将截图内容黏贴至QQ聊天窗口中; 发送截图。 实现细节 使用Pillow库截取屏幕 Pill…

    python 2023年5月19日
    00
  • python 已知三条边求三角形的角度案例

    当我们已知三角形的三条边时,可以利用余弦定理求出所有三个角的大小。具体步骤如下: 导入math模块 我们需要用到包含cos()函数在内的数学函数来计算余弦值。 import math 定义三角形的三条边长 a = 3 b = 4 c = 5 利用余弦定理求三个角的余弦值 余弦定理公式:c^2 = a^2 + b^2 – 2ab*cos(C) cosA = (…

    python 2023年6月3日
    00
  • 在 Python 3.6 中从 CSV 绘制纬度经度

    【问题标题】:Plot latitude longitude from CSV in Python 3.6在 Python 3.6 中从 CSV 绘制纬度经度 【发布时间】:2023-04-03 08:31:01 【问题描述】: 我正在尝试从地图上的CSV 文件中绘制大量经纬度值,格式如下(第一列和第二列): 我正在使用 python 3.6(显然某些库,如…

    Python开发 2023年4月8日
    00
  • python 列表,数组和矩阵sum的用法及区别介绍

    Python列表、数组和矩阵sum的用法及区别介绍 Python是一种高级编程语言,广泛应用于数据分析、科学计算、机器学习等领域。在这些应用场景下,常常需要用到列表、数组和矩阵。 列表 列表是Python中最基础的数据类型之一,是一种有序集合。列表中的元素可以是任何类型,包括数字、字符串、布尔值等等。在Python中,列表可以通过方括号来定义,各个元素之间用…

    python 2023年6月5日
    00
  • 网页爬虫之cookie自动获取及过期自动更新的实现方法

    网页爬虫之cookie自动获取及过期自动更新的实现方法 1. 什么是Cookie HTTP Cookie (也叫Web Cookie或浏览器Cookie)是指某些网站为了辨别用户身份、进行用户跟踪而存储在用户本地终端设备(通常是浏览器)上的数据,一般为名值对形式。 2. 为什么需要Cookie 在网页爬虫中,爬虫需要模拟登录操作才能获取需要的数据,而网站为了…

    python 2023年6月2日
    00
合作推广
合作推广
分享本页
返回顶部