爬虫基础简介

第一章:爬虫基础简介

什么是爬虫:
– 通过编写程序,模拟浏览器上网,然后让其去互联网上抓取数据的过程。
爬虫的价值:
– 实际应用
– 就业
爬虫是否违法?

  1. 在法律中是不被禁止的
  2. 具有违法风险
  3. 爬虫带来的风险可以体现在如下2方面:
    • 爬虫干扰了被访问网站的正常运营
    • 爬虫抓取了受到的法律保护的特定类型的数据或信息
  4. 如何避免进入局子: 优化自己的程序,避免干扰被访问网站的正常运行
    在使用,传播爬取到的数据时,审查抓取到的内容,如果发现了涉及到用户隐私,或商业机密等敏感内容,需要及时停止爬取或传播

爬虫在使用场景中的分类:

  1. 通用爬虫: 抓取系统重要组成部分。抓取的是一整张页面数据。
  2. 聚焦爬虫: 是建立在通用爬虫的基础之上。抓取的是页面中特定的局部内容 增量式爬虫 检测网站中数据更新的情况。只会抓取网站中最新更新出来的数据。

爬虫的矛与盾:

  1. 反爬机制: 门户网站,可以通过相应的策略或者技术手段,防止爬虫程序进行网站数据的爬取。
  2. 反反爬策略:爬虫程序可以制定相应的策略或者技术手段,破解门户网站中具备的反爬机制,从而可以获取门户网站中相关的数据。

robots.txt协议:(反爬)

  1. 君子协议。规定了网站中哪些数据可以被爬虫爬取哪些数据不可以被爬取。

http协议(HyperText Transfer Protocol)超文本传输协议

  1. 概念:服务器和客户端进行数据交互的一种形式。

常用请求头信息
– User-Agent:请求载体的身份标识
– Connection:请求完毕后,是断开连接还是保持连接
常用响应头信息
– Content-Type:服务器响应回客户端的数据类型
https协议
– 安全的超文本传输协议(数据加密)
加密方式

  1. 对称秘钥加密
  2. 非对称秘钥加密
  3. 证书秘钥加密

猜你喜欢

转载自blog.csdn.net/qq_38499019/article/details/114557576