记一次selenium爬取p站图片的经历(成功啦)

突发奇想,爬取p站图片做个壁纸图库(bukemiaoshu),当然这里有许多的门槛,但是为了实现理想,暂时没想那么多了,直接开干
(不是专业做测试和自动化的,如有大佬请评论指教!!!)

1.进入登录页
由于p站是需要登录的,听说p站反爬,requests应该不是那么好使,于是使用selenium模拟人工登录
观察p站起始页,首先是有个登录的a标签在这里的,可以使用类选择器来确定这个元素,再click一下即可

记一次selenium爬取p站图片的经历(成功啦)

记一次selenium爬取p站图片的经历(成功啦)

# 模拟登录
purl = "https://www.pixiv.net/"
browser = webdriver.Chrome()
browser.get(purl)

login1 = browser.find_element_by_class_name("signup-form__submit--login")
login1.click()

2.输入账户密码
观察页面
记一次selenium爬取p站图片的经历(成功啦)
记一次selenium爬取p站图片的经历(成功啦)

同样可以使用类选择器确定两个元素
确定后使用send_keys(key)方法可以将key填入input标签,填入后再单击一下登录即可

user = 'xxxxxx'
passwd = 'xxxxxx'

user_class = browser.find_element_by_class_name("degQSE")
passwd_class = browser.find_element_by_class_name("hfoSmp")
login2 = browser.find_element_by_class_name("jvCTkj")

user_class.send_keys(user)
passwd_class.send_keys(passwd)
login2.click()

3.搜索
进入主页后,观察页面搜索框,可以直接使用标签选择器搜索input标签,整个页面有3个input标签,而选择器会选择第一个标签,恰好搜索框就是第一个标签
再定义一个key用来在终端中输入爬取关键字,输入后同样可以用send_keys(key)方法填充,再模拟一下键盘,模拟键盘需要导入Keys

from selenium.webdriver.common.keys import Keys

导入Keys之后,可以使用sned_keys(Keys.ENTER)模拟键盘的回车,来确认搜索

记一次selenium爬取p站图片的经历(成功啦)
记一次selenium爬取p站图片的经历(成功啦)

 

# 模拟搜索
time.sleep(10)
search = browser.find_element_by_tag_name("input")
# browser.find_element_by_partial_link_text("搜索作品")
key = "归终"
key = input('请输入爬取关键字:')
search.send_keys(key)
search.send_keys(Keys.ENTER)

4.模拟下载
这里就是我遇到的门槛了...
因为selenium不方便下载,就想利用requests和with open下载
结果发现p站的链接只有通过鼠标访问才可以被接受,而直接在浏览器敲图片地址的方式是403被拒绝的
(这是什么鬼反爬,这样requests也get不到图片了)
记一次selenium爬取p站图片的经历(成功啦)

time.sleep(10)

photo_class_li = browser.find_elements_by_class_name("gpVAva")
print("搜索到li,开始逐个进入")
for picture in photo_class_li:
    print(picture)
    picture.click()
    time.sleep(4)
    true_picture_class = browser.find_element_by_class_name("beQeCv").find_element_by_tag_name("a")
    true_picture_class.click()
    true_picture = browser.find_element_by_class_name("cKLKGN").find_element_by_tag_name("img")
    url = true_picture.get_attribute('src')
    urllib.request.urlretrieve(url, f'./pictures/{url.split("/")[-1]}')
    browser.back()

新的思路是:
在搜索框搜索完之后会有一个ul列表,里面每个li都是图片,可以使用复数类选择器find_elements_by_class_name
利用循环对选择器找到的类进行点击,点击之后进入图片介绍页,再次点击图片则会进入图片大图,模拟鼠标右键,再进行另存为即可
但是同样的十分麻烦
因为p站图片不能用快捷键保存,只能用鼠标,而鼠标模拟右键又需要其他的库
就算用了模拟鼠标的库,也要进行坐标级的调整,比如鼠标右键后要移动到什么位置单击等等
十分的麻烦
这里我就放弃了,希望哪次再心血来潮的时候(并且技术力足够)继续完善它(好家伙,被p站教做人了)
记一次selenium爬取p站图片的经历(成功啦)
然而就这样摆烂过了几天,我痛定思痛,决定还是要实现理想,不过在实现理想前,我首先去锻炼了下(google,Stack Overflow...)
在那些也爬取pixiv同样返回403的我等同胞那里,我找到了同胞们解决问题的方法
如同requests提交请求需要加入请求头一样,p站的图片链接如果没有一个referer请求头的话,它也会拒绝你的访问
解决方法:https://blog.csdn.net/ycarry2017/article/details/79599539/

加入了referer就成功了可以访问了,但是还有一些小小细节什么的,单图多图之类的,注释应该解释全了(实际上还有一个动图,不过我好像没有需求,有需要的可以自行更改)

总的代码是这样的:

from selenium import webdriver
from selenium.webdriver.common.keys import Keys
from six.moves import urllib
import time

purl = "https://www.pixiv.net/"
# 模拟登录
browser = webdriver.Chrome()
browser.get(purl)
login1 = browser.find_element_by_class_name("signup-form__submit--login")
login1.click()
user = 'xxxxxx'
passwd = 'xxxxxx'
user_class = browser.find_element_by_class_name("degQSE")
passwd_class = browser.find_element_by_class_name("hfoSmp")
login2 = browser.find_element_by_class_name("jvCTkj")
user_class.send_keys(user)
passwd_class.send_keys(passwd)
login2.click()

# 模拟搜索
time.sleep(10)
search = browser.find_element_by_tag_name("input")
# browser.find_element_by_partial_link_text("搜索作品")
key = "归终"
key = input('请输入爬取关键字:')
search.send_keys(key)
search.send_keys(Keys.ENTER)

# 模拟下载
time.sleep(10)
photo_class_li = browser.find_element_by_class_name("krFoBL").find_elements_by_tag_name("a")
hrefs=[]
res_href=[]
num=1
print("正在获取链接......")
#获取所有a标签中的链接
for href in photo_class_li:
    hrefs.append(href.get_attribute("href"))
#过滤其中重复的与作者的链接
for href in hrefs:
    if num>60:
        break
    res_href.append(hrefs[num])
    num+=4
print(photo_class_li)
print("搜索到li,开始逐个进入")
for href in res_href:
    time.sleep(3)
    # print("当前进入到:",end="")
    print("当前爬取的图片地址是:"+href)
    browser.get(href)
    # picture.click()
    time.sleep(4)
    #多图页面的标志是存在"查看全部"这个标签,点击它就可以展开了
    try:
        browser.find_element_by_class_name("wEKy")
        browser.find_element_by_class_name("wEKy").click()
        print("采取多图")
        print("加载多图中...请稍等")
        time.sleep(10)
        pictures = browser.find_element_by_class_name("beQeCv").find_elements_by_tag_name("a")
        for p in pictures:
            pnum=1
            p.click()
            ture_temp = browser.find_element_by_class_name("cKLKGN").find_element_by_tag_name("img")
            url_temp=ture_temp.get_attribute("src")
            # 添加请求头
            opener = urllib.request.build_opener()
            opener.addheaders = [('Referer', "https://www.pixiv.net/member_illust.php?mode=medium&illust_id=60541651")]
            urllib.request.install_opener(opener)
            # 请求下载
            urllib.request.urlretrieve(url_temp, f'./pictures/{pnum}+{url_temp.split("/")[-1]}')
            pnum=pnum+1
            ture_temp.click()
    except:
        print("采取单图")
        #单图
        true_picture_class = browser.find_element_by_class_name("beQeCv").find_element_by_tag_name("a")
        true_picture_class.click()
        true_picture = browser.find_element_by_class_name("cKLKGN").find_element_by_tag_name("img")
        #查询src地址
        url = true_picture.get_attribute("src")
        #添加请求头
        opener = urllib.request.build_opener()
        opener.addheaders = [('Referer', "https://www.pixiv.net/member_illust.php?mode=medium&illust_id=60541651")]
        urllib.request.install_opener(opener)
        #请求下载
        urllib.request.urlretrieve(url, f'./pictures/{url.split("/")[-1]}')
        browser.back()

项目结构很简单,就一个pictures和一个.py
记一次selenium爬取p站图片的经历(成功啦)

本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:记一次selenium爬取p站图片的经历(成功啦) - Python技术站

(0)
上一篇 2023年3月31日
下一篇 2023年3月31日
合作推广
合作推广
分享本页
返回顶部