Python 3.5_简单上手、爬取百度图片的高清原图 Python 3.5_简单上手、爬取百度图片的高清原图

Python 3.5_简单上手、爬取百度图片的高清原图


利用工作之余的时间,学习Python差不多也有小一个月的时间了,路漫漫其修远兮,我依然是只菜鸟。

感觉学习新技术确实是一个痛并快乐着的过程,在此分享些心得和收获,并贴一个爬取百度图片原图的代码。

代码主要参考了xiligey老司机前辈的一篇文章,在基础上添加了一些的功能,在此谢过。http://m.blog.csdn.net/xiligey1/article/details/73321152


一、安装,搭建环境

首先是Python的安装,我想网上已经很多了,如果连安装都搞不定接下来的也不用看了,我自己用得是3.5的版本。

官网https://www.python.org/



除此之外分享一个国外的网站,涵盖了几乎全部的python模块,运行过程中有模块缺失的可以pip或者手动在这里下载安装。

下载下来的文件后缀名改成.zip,解压出来的文件夹直接放在python安装目录下的Lib文件夹里即可。

为了让我们码代码更简单舒服,调试更轻松,推荐一个IDE:PyCharm ,界面和操作都很友好易上手,需要的自行百度安装。


二、核心代码

首先F12调试模式,查看图片的链接地址

后来实验了,发现这是小图的链接地址,咱直接pass。在网页空白处右键查看源码,根据前辈的经验,我们能找到objUrl既是我们需要的原图的地址,这下就好办了,直接正则匹配,

pattern_pic = '"objURL":"(.*?)",'

而后处理翻页的问题

pattern_fanye = '<a href="(.*)" class="n">下一页</a>'
fanye_url = re.findall(pattern_fanye, html)[0]  # 下一页的链接

最后就可以循环保存图片了。

以下贴出代码:

[python]  view plain  copy
  1. # coding=utf-8  
  2. """ 
  3. 爬取百度图片的高清原图 
  4. Author          : MirrorMan 
  5. Created         : 2017-11-10 
  6. """  
  7. import re  
  8. import sys  
  9. import urllib  
  10. import os  
  11.   
  12. import requests  
  13.   
  14.   
  15. def get_onepage_urls(onepageurl):  
  16.     if not onepageurl:  
  17.         print('执行结束')  
  18.         return [], ''  
  19.     try:  
  20.         html = requests.get(onepageurl).text  
  21.     except Exception as e:  
  22.         print(e)  
  23.         pic_urls = []  
  24.         fanye_url = ''  
  25.         return pic_urls, fanye_url  
  26.     pic_urls = re.findall('"objURL":"(.*?)",', html, re.S)  
  27.     fanye_urls = re.findall(re.compile(r'<a href="(.*)" class="n">下一页</a>'), html, flags=0)  
  28.     fanye_url = 'http://image.baidu.com' + fanye_urls[0if fanye_urls else ''  
  29.     return pic_urls, fanye_url  
  30.   
  31.   
  32. def down_pic(pic_urls,localPath):  
  33.     if not os.path.exists(localPath):  # 新建文件夹  
  34.         os.mkdir(localPath)  
  35.     """给出图片链接列表, 下载图片"""  
  36.     for i, pic_url in enumerate(pic_urls):  
  37.         try:  
  38.             pic = requests.get(pic_url, timeout=15)  
  39.             string = str(i + 1) + '.jpg'  
  40.             with open(localPath + '%d.jpg' % i, 'wb')as f:  
  41.                 f.write(pic.content)  
  42.           #  with open(string, 'wb') as f:  
  43.           #      f.write(pic.content)  
  44.                 print('成功下载第%s张图片: %s' % (str(i + 1), str(pic_url)))  
  45.         except Exception as e:  
  46.             print('下载第%s张图片时失败: %s' % (str(i + 1), str(pic_url)))  
  47.             print(e)  
  48.             continue  
  49.   
  50.   
  51. if __name__ == '__main__':  
  52.     keyword = '泰勒斯威夫特1920*1080'  # 关键词, 改为你想输入的词即可  
  53.     url_init_first = r'http://image.baidu.com/search/flip?tn=baiduimage&ipn=r&ct=201326592&cl=2&lm=-1&st=-1&fm=result&fr=&sf=1&fmq=1497491098685_R&pv=&ic=0&nc=1&z=&se=1&showtab=0&fb=0&width=&height=&face=0&istype=2&ie=utf-8&ctd=1497491098685%5E00_1519X735&word='  
  54.     url_init = url_init_first + urllib.parse.quote(keyword, safe='/')  
  55.     all_pic_urls = []  
  56.     onepage_urls, fanye_url = get_onepage_urls(url_init)  
  57.     all_pic_urls.extend(onepage_urls)  
  58.   
  59.     fanye_count = 1  # 图片所在页数,下载完后调整这里就行  
  60.     while 1:  
  61.         onepage_urls, fanye_url = get_onepage_urls(fanye_url)  
  62.         fanye_count += 1  
  63.         print('第%s页' % fanye_count)  
  64.         if fanye_url == '' and onepage_urls == []:  
  65.             break  
  66.         all_pic_urls.extend(onepage_urls)  
  67.   
  68.     down_pic(list(set(all_pic_urls)),'e:/PythonPic/泰勒%s/' % fanye_count)#保存位置也可以修改  


三、其它

运行跑起来,

有些图片是无效的,一般就是链接失效了,也在我们的承受范围中,接下来大家就尽情享受吧


MirrorMan

2017/11/10

猜你喜欢

转载自blog.csdn.net/stt12345678/article/details/80471682