本文所谓的爬虫就是通过本地远程访问url,然后将url的读成源代码形式,然后对源代码进行解析,获取自己需要的数据,相当于简单数据挖掘。本文实现的是将一个网页的图片爬出保存到本地的过程,例子很简单,用的是python 3.5.2版本,以前的版本可能导入的包的名字不一样,调用的库函数方式有些差别。代码如下:
#coding =utf-8 import urllib.request import re def getHtml(url): page = urllib.request.urlopen(url) ##打开页面 html = page.read() ##获取目标页面的源码 return html def getImg(html): reg = 'src="(.+?\.png)"' ##正则表达式筛选目标图片格式,有些是'data-original="(.+?\.jpg)"' img = re.compile(reg) html = html.decode('utf-8') ##编码方式为utf-8 imglist = re.findall(img, html) ##解析页面源码获取图片列表 #print(imglist) x = 0 #length = len(imglist) for i in range(6): ##取前6张图片保存 imgurl = imglist[i] #imgurl = re.sub('"(.*?)"',r'\1',imgurl) #取单引号里的双引号内容 #print(imgurl) urllib.request.urlretrieve(imgurl,'%s.jpg' % x) ##将图片从远程下载到本地并保存 x += 1 global Max_Num Max_Num = 1 ##有时候无法打开目标网页,需要尝试多次,这里设置为1次 for i in range(Max_Num): try: html = getHtml("view-source:http://www.shangxueba.com/jingyan/2438398.html") getImg(html) break except: if i < Max_Num - 1: continue else: print ('URLError: <urlopen error timed out> All times is failed ')
本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:python小实例一:简单爬虫 - Python技术站