爬虫的入门库urllib库,请求,用法-案例篇

版权声明:如有侵权,请联系作者删除该文件! https://blog.csdn.net/Programmer_huangtao/article/details/83098694
from urllib.request import urlopen
#导入相应的库

#urllib.request和requests两者之间的差别,大体功能是一样的,具体用法,后面你自己感觉哪个适合自己

url ='http://www.baidu.com/'
#今天咱们爬取百度首页,是不是很傻,就是因为百度首页,没啥东西啊,拿简单的东西入手,给自己信心啊
response= urlopen(url)

info =response.read()
#读取响应,返回的是bytes格式
print(info.decode())
#打印网页html,打印网站
print(response.getcode())
#打印响应
print(response.geturl())
#打印请求的实际网站,实际url网址,防止重定向
print(response.info())
#打印服务器的响应的http报头

打几行代码了解一下,它能得到什么,你不能光看看,还是你去打一打,代码没多少,但是你照着打完,你在看看打印出的结果,是不是有点信息了,从网站HTML,到返回状态码,到访问的网址HTTP,到什么头,

打开谷歌浏览器f12,Network看看你那个和什么一样啊!!!不动手永远不知道这个东西是啥?

猜你喜欢

转载自blog.csdn.net/Programmer_huangtao/article/details/83098694