为什么要进行浏览器伪装技术?
有一些网站为了避免爬虫的恶意访问,会设置一些反爬虫机制,对方服务器会对爬虫进行屏蔽。常见的饭爬虫机制主要有下面几个:
1. 通过分析用户请求的Headers信息进行反爬虫
2. 通过检测用户行为进行反爬虫,比如通过判断同一个IP在短时间内是否频繁访问对应网站等进行分析
3. 通过动态页面增加爬虫的爬取难度,达到反爬虫的目的
第一种反爬虫机制在目前网站中应用的最多,大部分反爬虫网站会对用户请求的Headers信息的“User-Agent”字段进行检测来判断身份,有时,这类反爬虫的网站还会对“Referer”字段进行检测。我们可以在爬虫中构造这些用户请求的Headers信息,以此将爬虫伪装成浏览器,简单的伪装只需设置好“User-Agent”字段的信息即可,如果要进行高相似度的路蓝旗伪装,则需要将用户请求的Headers信息中常见的字段都在爬虫中设置好
第二种反爬虫机制的网站,可以通过之前学习的使用代理服务器并经常切换代理服务器的方式,一般就能够攻克限制
第三种反爬虫机制的网站,可以利用一些工具软件,比如selenium+phantomJS,就可以攻克限制
浏览器伪装准备工作
在学习高相似度的浏览器伪装技术之前,我们首先要对Headers信息要有一定的了解。我们先打开火狐浏览器,打开淘宝的网站www.taobao.com,利用Fiddler获取头部信息。
字段的格式,基本格式为:“字段名”:”字段值”,字段名和对应的值之间通过”:”隔开。
字段1: Accept: text/html, application/xhtml+xml, application/xmlq=0.9,*/*;q=08
- Accept字段主要用来表示浏览器能够支持的内容类型有哪些。
- text html表示HTML文档。
- application/ xhtml+xml表示XHTML文档。
- q代表权重系数,值介于0和1之间。
这一行字段信息表示浏览器可以支持 text/html,application/xml、/等内容类型,支持的优先顺序从左到右依次排列。
字段2: accept-encoding:gzip, deflate
- accept-encoding字段主要用来表示浏览器支持的压缩编码有哪些。
- gzip是压缩编码的一种。
- deflate是一种无损数据压缩算法
这一行字段信息表示浏览器可以支持gzp、 deflate等压缩编码。
字段3: Accept- Language:en-US,en;q=0.5
- Accept-language主要用来表示浏览器所支持的语言类型。
- en-Us表示英语(美国)语言
- en表示英语语言
所以之一行字段表示浏览器可以支持en-US、cn等语言。除此之外,有些还支持zh-CN(表示简体中文语言。zh表示中文,CN表示简体)。
字段4:User- Agent: Mozilla/5.0( X11;Ubuntu;Linux x86_64 ;rv:61.0) Gecko20100101Firefox/61.0
- user-agent字段主要表示用户代理,服务器可以通过该字段识别出客户端的浏览器类客户端的操作系统及版本号型、浏览器版本号主要以伪造该字段进行网页排版引擎等客户端信息。所以之前要模拟浏览器登录,主要以伪造该字段进行。
- Mozilla/5.0表示浏览器名和版本号。
- X11;Ubuntu;Linux x86_64 ;rv:61.0表示客户端操作系统对应信息。
- Gecko表示网页排版引擎对应信息。
- Firefox/61.0表示火狐浏览器。
所以这一行字段表示信息为对应的用户代理信息。
字段5: Connection:keep-alve
- Connection表示客户端与服务器的连接类型,对应的字段值主要有两种。
- keep-alive表示持久性连接。
- close表示单方面关闭连接,让连接断开。
所以此时,这一行字段表示客户端与服务器的连接是持久性连接。
字段6:Host: ocsp2.globalsign.com
- Host字段表示请求的服务器网址是什么,此时这一行字段表示请求的服务器网址是ocsp2.globalsign.com。
字段7: Referer:网址
- Referer字段主要表示来源网址地址,比如我们从htp:/ www,youku.conm网址中访问了该网址下的子页http/tvyouku.com?spm=0.0.topnav.5-1-3!2-A.Onqoef,那么此时来源网址为htp:/ www,youku,con,即此时 Referer字段的值为http:/ww
youku. com
python代码实战
使用代理服务器
import urllib.request
import urllib.parse
import http.cookiejar
url = "http://bbs.chinaunix.net/member.php?mod=logging&action=login&loginsubmit=yes&loginhash=LfgTz"
postdata = urllib.parse.urlencode({ # 此处登录可用自己在网站上注册的用户名和密码
"username": "weisuen",
"password": "aA123456"
}).encode("utf-8")
req = urllib.request.Request(url, postdata)
req.add_header("User-Agent", "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.84 Safari/537.36")
# 使用http.cookiejar.CookieJar()创建CookieJar对象
cjar = http.cookiejar.CookieJar()
# 使用HTTPCookieProcessor创建cookie处理器,并以其参数构建opener对象
opener = urllib.request.build_opener(urllib.request.HTTPCookieProcessor(cjar))
# 将opener安装为全局
urllib.request.install_opener(opener)
file = opener.open(req)
data = file.read()
file = open('/home/wk/csdn.html','wb')
file.write(data)
file.close()
url2 = "http://bbs.chinaunix.net/" # 设置要爬取的该网站下其他网页地址
data2 = urllib.request.urlopen(url2).read()
fhandle = open('/home/wk/csdn1.html','wb')
fhandle.write(data2)
fhandle.close()
本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:爬虫笔记(十二)——浏览器伪装技术 - Python技术站