手把手学爬虫第三弹——爬取动态渲染的信息

一、什么是动态渲染信息?

    学过网页开发相关的都知道很多网页数据并不是一次就返回全部,需要向服务器发送异步请求获取数据。在爬取此类信息的时候可以在浏览器中分析Ajax和JS请求的数据。本文我将和大家一起学习如何使用Ajax、Selenium和Splash技术获取动态数据。

二、Ajax数据爬取

    Ajax是一种新的网页数据交互技术,它可以在页面不刷新、不更改页面链接的情况下与服务器交换数据并更新网页部分内容。
下面我们以原神官网的角色加载为例介绍。

1.分析网页请求

请添加图片描述

2.查看请求数据

这类数据一般会以json格式返回,为了方便查好数据,给大家推荐一个JSON数据在线格式化的网站。JSON在线格式化
请添加图片描述

3.请求数据

分析完请求以及返回的数据之后就可以开始怕取数据了,请求代码展示如下,返回数据正常。

# -*- coding: utf-8 -*-
# @Time : 2021/9/18 16:03
# @Author : KK
# @File : 40_原神官网.py
# @Software: PyCharm 
import requests

headers = {
    
    
    'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.159 Safari/537.36'}


def get_data(url):
    try:
        response = requests.get(url=url, headers=headers)
        print(response.json())

    except:
        pass


if __name__ == '__main__':
    url = 'https://ys.mihoyo.com/content/ysCn/getContentList?pageSize=20&pageNum=1&order=asc&channelId=150'
    get_data(url)

请添加图片描述

4.清洗数据

对于返回的JSON格式的数据我们不需要任何选择器就可以直接获取,注意看清数据的层次结构,这样我们就可以一层层获取我们需要的数据了,获取的时候参照格式化后的代码即可。
格式化后的数据如下,显然我们需要的数据在list这个列表里面,所以我们先拿到这个list,然后去遍历list进一步取出里面的数据。
请添加图片描述

def get_data(url):
    try:
        yinpin = []
        tu_url = None
        jianjie = None
        response = requests.get(url=url, headers=headers)
        # print(response.json())
        res = response.json()
        data_list = res['data']['list']  # 获取到list数据
        # print(data_list)
        i = 1
        for each in data_list:
            print('正在爬取第{}个角色..'.format(i))
            i = i + 1
            id = each['id']  # 角色id
            title = each['title']  # 角色名字
            start_time = each['start_time']  # 角色上线时间
            ext_list = each['ext']
            for item in ext_list:
                if item['arrtName'] == '角色-PC端主图':  # 角色主图
                    tu_url = item['value'][0]['url']
                elif item['arrtName'] == '角色-简介':  # 角色简介
                    jianjie = processing(item['value'])
                elif item['arrtName'] == '角色-音频1-2':  # 可以使用正则匹配所有的
                    yinpin = item['value'][0]['name'] + '||' + item['value'][0]['url']  # 一条配音链接
            data = {
    
    
                "角色ID": id,
                "角色名称": title,
                "上线时间": start_time,
                "高清图片": tu_url,
                "角色简介": jianjie,
                "角色配音": yinpin,
            }
            # print(data)
            dict_infor.append(data)
        # print(dict_infor)
    except ZeroDivisionError as e:
        print("except:", e)
    finally:
        pass

5.完整代码以及效果截图

# -*- coding: utf-8 -*-
# @Time : 2021/9/18 16:03
# @Author : KK
# @File : 40_原神官网.py
# @Software: PyCharm 
import requests
import re
import csv
import time

headers = {
    
    
    'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.159 Safari/537.36'}

dict_infor = []


# 处理字符串中的空白符,并拼接字符串
def processing(strs):
    n = strs.replace('<p>', '').replace('<br />\n', '').replace('</p>\n', '').replace('\n', '')  # 去除空字符
    return n  # 返回拼接后的字符串


def get_data(url):
    try:
        yinpin = []
        tu_url = None
        jianjie = None
        response = requests.get(url=url, headers=headers)
        # print(response.json())
        res = response.json()
        data_list = res['data']['list']  # 获取到list数据
        # print(data_list)
        i = 1
        for each in data_list:
            print('正在爬取第{}个角色..'.format(i))
            i = i + 1
            id = each['id']  # 角色id
            title = each['title']  # 角色名字
            start_time = each['start_time']  # 角色上线时间
            ext_list = each['ext']
            for item in ext_list:
                if item['arrtName'] == '角色-PC端主图':  # 角色主图
                    tu_url = item['value'][0]['url']
                elif item['arrtName'] == '角色-简介':  # 角色简介
                    jianjie = processing(item['value'])
                elif item['arrtName'] == '角色-音频1-2':  # 可以使用正则匹配所有的
                    yinpin = item['value'][0]['name'] + '||' + item['value'][0]['url']  # 一条配音链接
            data = {
    
    
                "角色ID": id,
                "角色名称": title,
                "上线时间": start_time,
                "高清图片": tu_url,
                "角色简介": jianjie,
                "角色配音": yinpin,
            }
            # print(data)
            dict_infor.append(data)
        # print(dict_infor)
    except ZeroDivisionError as e:
        print("except:", e)
    finally:
        pass


def get_url():
    page_list = [150, 151, 324]
    for i in page_list:
        url = 'https://ys.mihoyo.com/content/ysCn/getContentList?pageSize=20&pageNum=1&order=asc&channelId={}'.format(i)
        get_data(url)


if __name__ == '__main__':
    get_url()
    # 保存到csv
    with open(r'E:\python\pythonProject3\venv\Include\原神.csv', 'a', encoding='utf-8', newline='') as cf:
        writer = csv.DictWriter(cf, fieldnames=['角色ID', '角色名称', '上线时间', '高清图片', '角色简介', '角色配音'])
        writer.writeheader()
        writer.writerows(dict_infor)
        time.sleep(1)
    print('爬取并保存完毕')

请添加图片描述

6.分析总结

通过上面的代码可以发现,对于这类数据的爬取其实和requests请求方式差不多,主要区别在于我们获取到的数据不同,对于JSON数据我们同样进行适当的处理,获取我们想要的数据。

三、Selenium爬取动态数据

    Selenium是浏览器自动化测试框架,是一个用于web测试的工具,可以直接在浏览器中运行,并可驱动浏览器执行一定的操作,例如点击、下拉等,还可以获取浏览器当前页面的源代码。

1.安装Selenium以及浏览器驱动

在pycharm搜索安装selenium模块或者直接控制台pip install selenium命令行安装。
由于该框架需要浏览器驱动,我们根据自己所使用的浏览器下载对应版本即可。
chrome浏览器驱动
Firefox浏览器驱动
IE浏览器驱动

2.Selenium使用准备

下载完成后将名称chromedriver.exe的文件提取出来放在与自己的python.exe文件同级的路径中。
请添加图片描述

3.Selenium模块常用方法

查阅官网文档

a.定位元素

模块名称 使用
find_element_by_id()
find_element_by_name()
find_element_by_xpath()
find_element_by_link_text()
find_element_by_partial_link_text() 查询返回单个元素
find_element_by_tag_name
find_element_by_class_name
find_element_by_css_selector
模块名称 使用
find_elements_by_name()
find_elements_by_xpath()
find_elements_by_link_text()
find_elements_by_partial_link_text() 查询返回多个元素
find_elements_by_tag_name
find_elements_by_class_name
find_elements_by_css_selector

b.鼠标操作

模块问题
click() 点击元素
context_click(elem) 右击鼠标、点击元素、另存为
double_click(elem) 双击鼠标
move_to_hold(elem) 鼠标光标移动到一个元素上
click_and_hold(elem) 在一个元素上按下鼠标左键

c.键盘操作

请添加图片描述

4.Selenium使用

上面我们看了这个模块的一些常用参数,接下来我们以某东购物网站为例讲解如何使用。大致思路是先生成一个浏览器对象,然后使用常用方法模拟输入搜索关键字并搜索,然后获取搜索的页面数据并解析。

请添加图片描述
请添加图片描述

# -*- coding: utf-8 -*-
# @Time : 2021/9/19 0:11
# @Author : KK
# @File : 41_selenium.py
# @Software: PyCharm
from selenium import webdriver
import time
import csv
import re

def change_str(strs):
    strs = strs.replace("京东超市", "").replace("\n", "")
    return strs


# 获取商品
def get_product(key_word):
    # 定位输入框
    browser.find_element_by_id("key").send_keys(key_word)
    # 定义点击按钮,并点击
    browser.find_element_by_class_name('button').click()
    browser.maximize_window()
    # 等待20秒,方便手动登录
    # time.sleep(20)
    # 定位这个“页码”,获取“共100页这个文本”
    page = browser.find_element_by_xpath('//*[@id="J_bottomPage"]/span[2]/em[1]/b').text
    print(page)
    return page


# 获取数据
def get_data():
    # 所有的信息都在items节点下
    items = browser.find_elements_by_xpath('//*[@id="J_goodsList"]/ul/li')
    # print(type(items))
    for item in items:
        # 名称
        pro_descs = item.find_element_by_xpath('.//div[@class="p-name p-name-type-2"]/a').text
        pro_desc = change_str(pro_descs)
        # 价格
        pro_price = item.find_element_by_xpath('.//div[@class="p-price"]/strong/i').text
        # # 付款人数
        buy_num = item.find_element_by_xpath('.//div[@class="p-commit"]/strong/a').text
        # # 店铺
        shop = item.find_element_by_xpath('.//div[@class="p-shop"]/span[@class="J_im_icon"]/a').text
        with open(r'E:\python\pythonProject3\venv\Include\京东月饼.csv', mode='a', newline='', encoding='utf-8-sig') as f:
            csv_writer = csv.writer(f, delimiter=',')
            csv_writer.writerow([pro_desc, pro_price, buy_num, shop])


if __name__ == '__main__':
    # key_word = input("请输入您要搜索的商品:")
    key_word = "月饼"
    browser = webdriver.Chrome()
    browser.execute_cdp_cmd('Page.addScriptToEvaluateOnNewDocument', {
    
    
        'source': 'Object.defineProperty(navigator, "webdriver", {get: () => undefined})'
    })
    browser.get('https://www.jd.com/?cu=true&utm_source=baidu-pinzhuan&utm_medium=cpc&utm_campaign=t_288551095_baidupinzhuan&utm_term=0f3d30c8dba7459bb52f2eb5eba8ac7d_0_322db0e3896548d38f025a79a5462747')
    page = get_product(key_word)
    # print(page)
    get_data()
    page_i = 1
    while int(page) != page_i:
        print("正在爬取第{}页".format(page_i + 1))
        print("---------- 分割线 ----------")
        browser.get('https://search.jd.com/Search?keyword={}&page={}'.format(key_word, (page_i * 2) - 1))
        browser.implicitly_wait(15)
        get_data()
        page_i += 1
    print("爬取结束!")

请添加图片描述
请添加图片描述

5.分析总结

通过上面的讲解以及实例可以发现,selenium主要用于爬取动态数据,类似于购物网站等,其优点在于模拟人访问网站的方式获取数据,高效便捷。

四、总结

这篇文章有别于前面的爬虫,主要是爬取非常规网站数据,这类网站大多使用js或其他途径加载数据,普通爬虫不能获取有效信息。
下期我们将会学习如何爬取手机app的数据。

author: KK
time :2021年9月22日19:33:14
flag:6/30

猜你喜欢

转载自blog.csdn.net/k1507157/article/details/120368122