Python——网络爬虫,一个简单的通用代码框架

一、代码
"""
通用代码框架:可使网页爬取变得更稳定更有效

下面是一个爬取百度网页的例子,
正常情况下是返回
"""
import requests


def get_HTML_Text():
try:
r = requests.get(url, timeout=30)
r.raise_for_status()
# 若状态不是200,引发HTTPError异常
r.encoding = r.apparent_encoding
return r.text
except:
return '产生异常!'


if __name__ == '__main__':
url = "http://www.baidu.com"
print(get_HTML_Text()
二、结果分析
正常情况:其实去掉三个www中的一个也会正常

 异常情况1:

异常情况2:

 异常情况3:

三、总结
异常情况的原因多样,通用代码框架并不能包含全部异常,代码写正确才是王道
 
 



猜你喜欢

转载自www.cnblogs.com/kekefu/p/12388338.html