python爬虫的基本流程

在学习python的过程中,学会获取网站的内容是我们必须要掌握的知识和技能,今天就分享一下爬虫的基本流程,只有了解了过程,我们再慢慢一步步的去掌握它所包含的知识

通过一段时间的工作,我总结了一下,爬虫大概需要七步

一、获取网站的地址

有些网站的网址十分的好获取,显而易见,但是有些网址需要我们在浏览器中经过分析得出

二、获取User-Agent

我们通过获取User-Agent 来将自己的爬虫程序伪装成由人亲自来完成信息的获取,而非一个程序,因为大多数网站是不欢迎爬虫程序的

三、请求 url

主要是为了获取我们所需求的网址的源码,便于我们获取数据

四、获取响应

获取响应是十分重要的, 我们只有获取了响应才可以对网站的内容进行提取,必要的时候我们需要通过登录网址来获取cookie 来进行模拟登录操作

五、获取源码中的指定的数据

这就是我们所说的需求的数据内容,一个网址里面的内容多且杂,我们需要将我们需要的信息获取到,我目前主要用到的方法有3个分别是re(正则表达式)  xpath 和 bs.4

六、处理数据和使数据美化

当我们将数据获取到了,有些数据会十分的杂乱,有许多必须要的空格和一些标签等,这时我们要将数据中的不需要的东西给去掉

七、保存

最后一步就是将我们所获取的数据进行保存,以便我们进行随时的查阅,一般有文件夹,文本文档,数据库,表格等方式

本人的一点心得,希望能对一些初学的人一些帮助,如有不足的地方,也请尽情指出。’

猜你喜欢

转载自blog.csdn.net/weixin_42539547/article/details/81291325