python+senium+chrome的简单爬虫脚本
简述:
开始接触python写web自动化的脚本主要源于在公司订阅会议室,主要是使用python+selenium+chromedriver驱动chrome浏览器来完成的,其中部分python代码可以通过低版本的Firefox来录制,生成脚本。安装好环境之后,基本就是用火狐生成一些代码,而代码生成就是根据web中元素的id或者一些其他特征去定位html中的组件,然后模拟鼠标和键盘操作,实现自动化控制,调试完成可以用pyinstaller生成exe文件。
环境搭建:
1、下载chrome浏览器和对应版本的chromedriver
版本对应关系可以参照这个帖子:https://blog.****.net/a6864657/article/details/80616418
http://chromedriver.storage.googleapis.com/index.html
下载好将解压后的 放入chrome.exe 同级目录
2、安装python,配置python的和pip的环境变量
3、安装selinium pip install selinium即可
Firefox录制python脚本
可参考:https://blog.****.net/weixin_37979468/article/details/83621394
公司代码无法看到,所以只写了个驱动浏览器的代码示例,其他地方可以把火狐生成的python直接替换即可:
from selenium import webdriver #executable_path = 'C:Program Files (x86)GoogleChromeApplicationchromedriver_X64.exe' driverChrome = webdriver.Chrome("C:Program Files (x86)GoogleChromeApplicationchromedriver.exe") driverChrome.maximize_window() driverChrome.get("http://www.dianping.com/") driverChrome.quit()
参考教程:
官方文档 : Selenium with Python