urllib库的使用(三)-----python3 异常处理

异常处理

urllib的error模块定义了由request模块产生的异常。如果出现了问题,request模块便会抛出error模块中定义的异常。

1. URLError:

(1)来自urllib库的error模块,他继承自OSError类,是error异常模块的基类,由request模块产生的异常都可以通过它处理
(2)reason属性,返回错误原因

from urllib import request,error
try:
    response = request.urlopen('https://blog.asdn.net/hy592070616')
except error.URLError as e:
    print(e.reason)

运行结果:

[Errno 11001] getaddrinfo failed

异常处理:避免程序异常终止,同时异常得到了有效处理。

2. HTTPError:

(1)是URLError的子类,专门用来处理HTTP请求错误,比如认证请求失败等
(2)三个属性:
    code:返回http状态码,比如404表示网页不存在,500表示服务器内部错误等。
    reason:返回错误的原因
    headers:返回请求头

HTTPError的父类,所以可以先选择捕获子类的错误,再去捕获父类的错误。

from urllib import request, error

try:
    response = request.urlopen('https://blog.asdn.net/hy592070616')
except error.HTTPError as e:
    print(e.reason, e.code, e.headers)   # 输出reason、code、headers属性

# 这是一个比较好的异常处理方法
# 可以先捕获子类异常再捕获父类异常
from urllib import request, error

try:
    response = request.urlopen('https://blog.csdn.net/Daycym/article/details/11')
except error.HTTPError as e:
    print(e.reason, e.code, e.headers)
except error.URLError as e:
    print(e.reason)
else:
    print('Request Successfully')

解析链接

urllib库里还提供了parse模块,它定义了处理URL的标准接口,例如实现URL各部分的抽取、合并以及链接转换。它支持如下协议的URL处理:file、ftp、gopher、hd、http、https、imap、mailto、mms、news、nntp、prospero、rsync、rtsp、rtspu、sftp、sip、sips、snews、svn、svn+ssh、telnet和wais。

urlparse:将网址拆分成不同意义的字典

urllib.parse.urlparse(urlstring, scheme=’’, allow_fragments=True)
  • url: 必填项,即待解析的URL
  • scheme: 它是默认的协议(比如http和https),假如这个链接没有带协议信息,会将这个作为默认的协议。
  • allow_fragments: 即是否忽略fragment,如果它被设置为False,fragment部分就会被忽略,它会被解析为path、parameters或者query的一部分,而fragment部分为空。

#网址,协议类型,锚点链接

from urllib.parse import urlparse
#解析网址
result = urlparse('http://www.baidu.com/index.html;user?id=5#comment')
print(type(result), result)

from urllib.parse import urlparse
result = urlparse('www.baidu.com/index.html;user?id=5#comment', scheme='https')
print(result)

from urllib.parse import urlparse
result = urlparse('http://www.baidu.com/index.html;user?id=5#comment', scheme='https')
print(result)

from urllib.parse import urlparse
result = urlparse('http://www.baidu.com/index.html;user?id=5#comment', allow_fragments=False)
print(result)

from urllib.parse import urlparse
result = urlparse('http://www.baidu.com/index.html#comment', allow_fragments=True)

urlunparse:urlparse的反编译

它接受的参数是一个可迭代对象,但是*它的长度必须是6,*否则会抛出参数数量不足或者过多的问题。

from urllib.parse import urlunparse
#urlparse的反函数
data = ['http', 'www.baidu.com', 'index.html', 'user', 'a=6', 'comment']  # 长度必须为6
print(urlunparse(data))

运行结果:

http://www.baidu.com/index.html;user?a=6#comment

urlsplit()

urlsplit()方法和urlparse()方法非常相似,只不过它不再单独解析params这一部分,而将params会合并到path中,只返回5个结果。

urlunsplit()

urlunsplit()与urlunparse()类似,它也是将链接各个部分组合成完整链接的方法,传人的参数也是一个可迭代对象,例如列表、元组等,唯一的区别是长度必须为5。

urljoin:拼接网址, 实现链接的解析、拼合与生成。

提供一个base_url(基础链接)作为第一个参数,将新的链接作为第二个参数,该方法会分析base_url的scheme、netloc和path这3个内容并对新链接缺失的部分进行补充,最后返回结果。可以发现,base_url(提供了三项内容scheme、netloc和path。如果这3项在新的链接里不存在,就予以补充。如果新的链接存在,就使用新的链接的部分。而base_url(中的params、query和fragment是不起作用的)。
【注】两个都有取最新的,不全的话互补

from urllib.parse import urljoin
#用来拼接url
print(urljoin('http://www.baidu.com', 'FAQ.html'))
print(urljoin('http://www.baidu.com', 'https://cuiqingcai.com/FAQ.html'))
print(urljoin('http://www.baidu.com/about.html', 'https://cuiqingcai.com/FAQ.html'))
print(urljoin('http://www.baidu.com/about.html', 'https://cuiqingcai.com/FAQ.html?question=2'))
print(urljoin('http://www.baidu.com?wd=abc', 'https://baidu.com/index.php'))
print(urljoin('http://www.baidu.com', '?category=2#comment'))
print(urljoin('www.baidu.com', '?category=2#comment'))
print(urljoin('www.baidu.com#comment', '?category=2'))

运行结果:

http://www.baidu.com/FAQ.html
https://cuiqingcai.com/FAQ.html
https://cuiqingcai.com/FAQ.html
https://cuiqingcai.com/FAQ.html?question=2
https://baidu.com/index.php
http://www.baidu.com?category=2#comment
www.baidu.com?category=2#comment
www.baidu.com?category=2

urlencode:把一个字典对象转换成get请求参数

在构造GET请求参数的时候很有用,将字典序列化为GET请求参数。有时为了更加方便地构造参数,我们会事先用字典来表示。要转化为URL的参数时,只需要调用该方法即可。

from urllib.parse import urlencode
#把一个字典对象转换成get请求参数
params = {
    'name': 'germey',
    'age': 22
}
base_url = 'http://www.baidu.com?'
url = base_url + urlencode(params)
print(url)

运行结果:

http://www.baidu.com?name=germey&age=22

parse_qs() 将一串GET请求参数,转为字典

from urllib.parse import parse_qs
query = 'name=germey&age=22'
print(parse_qs(query))

运行结果:

{'name': ['germey'], 'age': ['22']}

parse_qsl() 将参数,转为元组组成的列表

from urllib.parse import parse_qsl
query = 'name=germey&age=22'
print(parse_qsl(query))

运行结果:

[('name', 'germey'), ('age', '22')]

quote()

将内容转化为URL编码的格式,因为URL有中文编码格式时,可能会出现乱码,用它可以转化
  
unquote()

进行URL解码

分析Robots协议

Robots协议

也称网络爬虫协议,机器人协议,它的全称叫做:网络爬虫排除标准(Robots Exclusion Protocol),用来告诉爬虫和搜索引擎哪些页面可以爬取,哪些不可以爬取,它通常是一个叫robots.txt文本文件,一般放在网站的根目录下

robotparse()

from urllib.robotparser import RobotFileParser
robotparser = RobotFileParser()#首先创建RobotFileParser对象,然后通过set_url()方法设置了“robots.txt”的链接
# 或 robotparser = RobotFileParser('http://www.jianshu.com/robots.txt')
robotparser.set_url('http://www.jianshu.com/robots.txt')
robotparser.read()
print(robotparser.can_fetch('*', 'http://www.jianshu.com/p/b67554025d7d'))  # 判断是否可以被爬取
print(robotparser.can_fetch('*', "http://www.jianshu.com/search?q=python&page=1&type=collections"))

运行结果:
False
False

看一个“robots.txt”的样例:

User-agent: *
Disallow: /
Allow: /public/
  • User-agent:描述了搜索爬虫的名称,User-agent: *则代表该协议对任何爬取爬虫有效,
    User-agent:Baiduspider我们设置的规则对百度爬虫是有效的,如果有多条User-agent记录,则就会有多个爬虫会受到爬取限制,但至少需要指定一条。

  • Disallow指定了不允许抓取的目录,比如上例子中设置为/则代表不允许抓取所有页面。

  • Allow一般和Disallow一起使用,一般不会单独使用,用来排除某些限制。对所有搜索爬虫,设置为/public/,则表示所有页面不允许抓取,但可以抓取public目录。

将上述内容保存成“robots.txt”文件,放在网站的根目录下,和网站的入口文件(比如index.php、index.html和index.jsp等)放在一起。

禁止所有爬虫访问任何目录的代码如下:

User-agent:*
Disallow:/

允许所有爬虫访问任何目录的代码如下:

User-agent:*
Disallow:

禁止所有爬虫访问网站某些目录的代码如下:

User-agent:*
Disallow:/private/
Disallow:/tmp/

只允许某一个爬虫访问的代码如下:

User-agent:webCrawler Disallow:User-agent:*
Disallow:/

obotparser模块,该模块提供了一个RobotFileParser类
声明

urllib.robotparser.RobotFileParser(url='')

在声明时不传入,默认为空,最后再使用set_url()方法设置一下
 
此类的常用方法:

  • set_url()  设置robots.txt文件的链接,如果在创建RobotFileParser对象时传入了链接,那么就不需要再用这个方法。
  • read()  读取robots.txt文件并分析,不会返回任何内容,但是执行了读取和分析操作。,如果不调用这个方法,后面的判断都会为False,一定要调用这个方法。
  • parse()  解析robots.txt文件,如果传入的参数是“robots.txt”某些行的内容,那么它会按照“robots.txt”的语法规则去分析。
  • can_fetch()  传入两个参数,第一个是User-Agent,第二个是抓取的URL,返回是否可抓取,返回值为TrueFalse
  • mtime()  返回上回抓取和分析“robots.txt”的时间,如果想要长时间分析和抓取的搜索爬虫的话,要用 mtime() ,此时就需要定期检查来抓取最新的“robots.txt”。
  • modified()  想要长时间分析和抓取的搜索爬虫的话,,将当前时间设置为上次抓取和分析“robots.txt”文件的时间

猜你喜欢

转载自blog.csdn.net/ingenuou_/article/details/104173724
今日推荐