python+senium+chrome的简单爬虫脚本

简述:

开始接触python写web自动化的脚本主要源于在公司订阅会议室,主要是使用python+selenium+chromedriver驱动chrome浏览器来完成的,其中部分python代码可以通过低版本的Firefox来录制,生成脚本。安装好环境之后,基本就是用火狐生成一些代码,而代码生成就是根据web中元素的id或者一些其他特征去定位html中的组件,然后模拟鼠标和键盘操作,实现自动化控制,调试完成可以用pyinstaller生成exe文件。

环境搭建:

1、下载chrome浏览器和对应版本的chromedriver

版本对应关系可以参照这个帖子:https://blog.csdn.net/a6864657/article/details/80616418

                                                     http://chromedriver.storage.googleapis.com/index.html

下载好将解压后的  放入chrome.exe 同级目录

2、安装python,配置python的和pip的环境变量

3、安装selinium   pip install selinium即可

Firefox录制python脚本

可参考:https://blog.csdn.net/weixin_37979468/article/details/83621394

公司代码无法看到,所以只写了个驱动浏览器的代码示例,其他地方可以把火狐生成的python直接替换即可:

from selenium import webdriver

#executable_path = 'C:\Program Files (x86)\Google\Chrome\Application\chromedriver_X64.exe'
driverChrome = webdriver.Chrome("C:\Program Files (x86)\Google\Chrome\Application\chromedriver.exe")
driverChrome.maximize_window()
driverChrome.get("http://www.dianping.com/")
driverChrome.quit()

参考教程:

官方文档 : Selenium with Python

webdriver实用指南python版本

猜你喜欢

转载自www.cnblogs.com/bewolf/p/10351458.html