Python爬虫小白入门(四)PhatomJS+Selenium第一篇
在上一篇博文中,我们的爬虫面临着一个问题,在爬取Unsplash网站的时候,由于网站是下拉刷新,并没有分页。所以不能够通过页码获取页面的url来分别发送网络请求。我也尝试了其他方式,比如下拉的时候监控http请求,看看请求是否有规律可以模拟。后来发现请求并没有规律,也就是不能够模拟http请求来获取新的数据(也可能是我水平有限,哪位童鞋找到了规律一定要告诉我哦)。那么就只有模拟下拉操作了。
想要模拟下拉操作,我们需要用到两个工具,一个是PhatomJs,一个是Selenium。
PhatomJS其实就是一个没有界面的浏览器,最主要的功能是能够读取js加载的页面。
Selenium实质上是一个自动化测试工具,能够模拟用户的一些行为操作,比如下拉网页。
一直有个说法,Python + PhatomJS + Selenium 是爬虫的无敌三件套,基本能够实现所有爬虫需求。
OK,我们分别介绍下他们的使用,然后开始我们的实战。
二、运行环境
我的运行环境如下:
系统版本
Windows10。
Python版本
Python3.5,推荐使用Anaconda 这个科学计算版本,主要是因为它自带一个包管理工具,可以解决有些包安装错误的问题。去Anaconda官网,选择Python3.5版本,然后下载安装。
IDE
我使用的是PyCharm,是专门为Python开发的IDE。这是JetBrians的产品,点我下载。
三、PhatomJS
1. 简介
PhatomJS是一个WebKit内核的浏览器引擎,它能像浏览器一样(它就是一个浏览器,只不过没有界面)解析网页,以及运行JavaScript脚本。
迄今为止,我们的实战小爬虫只是在模拟http请求,然后获取response,从response中解析HTML代码获得想要的数据。但是,网页中有些数据是用js动态加载的,这样,我们使用使用http请求获得的数据中并不包含js动态加载的内容。比如我在本系列的第一篇博文中请求了一下网易云音乐的网站,本来想用网易云音乐做实战示例的(我的设计师小伙伴儿的另一个需求),不过由于它是由js动态加载的,用不到requests库,所以就先以Unsplash网站为实例了。写完Unsplash网站的爬虫后就开始网易云音乐的实战!
那么,怎么判断一个网站的内容是不是js动态加载的呢?
打开网易云音乐,在页面上点击右键-->View page source。会弹出一个新窗口,在新窗口中搜索你想要爬取的内容,发现搜不到。那就肯定是js动态加载的了。
比如看下图中的选中图片,下面有文字:“影视歌曲|重新演绎经典 听翻唱焕发新生命力”。
我们在View page source页面搜索该内容,发现搜索不到,可见这部分内容是由js动态加载的。
好了,进入正题,来看看PhatomJS如何使用。
2. 安装 PhatomJS
PhatomJS 不能使用conda install 或者pip install 来安装。需要去官网下载,选择你的系统版本。下载完成的是一个压缩包,解压到你想存放的目录(我放在了“C:\Program Files\” 目录)。
接下来需要把PhatomJS配置成环境变量,这样就可以直接调用了。
步骤:
1). 按win+E快捷键打开文件资源管理器“,在左侧的“此电脑”上点击右键,选择“属性”。
2). 在打开的窗口中左侧,点击“高级系统设置”。
3). 在弹出的窗口中点击“环境变量”。
4). 在新窗口中选择“PATH”,在下方点击编辑按钮。
5). 把phatomjs.exe所在的目录添加到path中即可。
这样,安装过程就搞定了。
3. PhatomJS 的使用
在网上搜了一下,没有找到中文的官网文档,只找到了PhatomJS英文官方文档。
3.1 举个栗子
先来一个官网上的例子,PhatomJS执行js文件,输出“Hello, World!”
新建一个js文件,包含下面的代码,然后保存为hello.js。
console.log('Hello, world!');phantom.exit(); #用来终止phtomjs程序
打开cmd命令窗口,进入到hello.js 文件所在目录,执行下面的命令:phantomjs hello.js
输出:Hello, world!
这个例子虽然方法比较笨,需要先创建一个js文件,然后再去执行。但是演示了PhatomJS的一个很重要的功能,就是执行js代码。我们后面会用到它来执行下拉操作哦。
3.2 再来个栗子
我们使用PhatomJS来请求一个网页,然后把网页截图保存。
创建一个js文件,包含下面的代码,保存为music.js
var page = require('webpage').create();page.open('http://music.163.com/', function(status) {
console.log("Status: " + status);
if(status === "success") {
page.render('music.png');
}
phantom.exit();
});
然后使用cmd命令窗口,在music.js文件所在目录,执行下面的命令:phatomjs music.js
这样会有一个屏幕截图保存在文件所在的文件夹喽。
3.3 其他栗子
还有一些功能就不细细展开了,知道常用的就可以继续咱们的爬虫了。有用到其他功能的童鞋们去官网看看例子。
对了,官网还有许多栗子,奉上链接:Phatomjs官网栗子。
四、Selenium
1. 简介
Selenium是一个自动化测试框架,广泛的用于自动化测试领域(是不是真的广泛用于自动化测试领域我也不知道,没怎么搞过自动化测试 -_-!,这是我臆测的 = ̄ω ̄=)。因为它能够模拟人工操作,比如能在浏览器中点击按钮、在输入框中输入文本、自动填充表单、还能进行浏览器窗口的切换、对弹出窗口进行操作。也就是说你能手动做的东西,基本都能用它来实现自动化!
自己总结的大白话介绍~,大家凑合看哦。主要是文学水平有限,青春期的时候还想当一个文艺青年,没事儿矫情矫情写点东西,还注重个押韵啥的,学了理工科以后,矫情的东西受不了了,喜欢直接了当的。哎呦,跑偏了,赶紧回归正题!
该框架还支持多种语言:Java、C#、Python、Ruby、PHP、Perl、JavaScript。
当然,我们使用的是面向Python语言的API。
2. 安装 Selenium
可以使用pip install selenium
来安装。使用Anaconda3版本的童鞋们,conda install selenium
在我的机器上不会下载,未找到原因。但是同样使用pip install selenium
安装成功了。通过在命令行里面输入conda list
,可以看到已经安装的包。
同时装有Python2.7和Python3.5的童鞋,使用下面的命令来安装。py -3 -m pip install selenium
3. Selenium 的使用
Selenium支持很多语言的使用,上面也提到了。其他语言的使用我没有接触过,直接看Python语言的使用。官网:Selenium with Python。
3.1 同样先来个栗子
因为PhatomJS没有界面,在使用的时候没有直观感受。所以,我们暂时使用Chrome浏览器代替PhatomJS。
首先下载Chrome浏览器驱动:下载地址,选择自己的系统版本,然后下载。这是一个压缩包,解压后存到一个目录中,然后把该目录添加到环境变量。因为上面的PhatomJS已经演示过添加环境变量的流程,这里就不赘述了。
在PyCharm中输入下面代码,然后运行看看有什么反应。
python">from selenium import webdriver #导入Selenium的webdriverfrom selenium.webdriver.common.keys import Keys #导入Keys
driver = webdriver.Chrome() #指定使用的浏览器,初始化webdriver
driver.get("http://www.python.org") #请求网页地址
assert "Python" in driver.title #看看Python关键字是否在网页title中,如果在则继续,如果不在,程序跳出。
elem = driver.find_element_by_name("q") #找到name为q的元素,这里是个搜索框
elem.clear() #清空搜索框中的内容
elem.send_keys("pycon") #在搜索框中输入pycon
elem.send_keys(Keys.RETURN) #相当于回车键,提交
assert "No results found." not in driver.page_source #如果当前页面文本中有“No results found.”则程序跳出
driver.close() #关闭webdriver
哎呀,其实浏览器的变化流程我都写到上面的代码的注释中了,就不再说一遍了哦。
通过上面的例子,我们可以大概的了解了Selenium都能做什么。个人认为其中比较重要的就是定位,即找到页面中的元素,然后进行相关操作。
3.2 导航操作 Navigating
导航操作的使用非常简单,完全可以通名字就知道它们是干什么的,不信先给你几个例子瞧瞧:
element = driver.find_element_by_id("passwd-id") #通过id获取元素element = driver.find_element_by_name("passwd") #通过name获取元素
element = driver.find_element_by_xpath("//input[@id='passwd-id']") #通过使用xpath匹配获取元素
下面列出详细的定位方法。有定位一个元素的,也有定位多个元素的。
- 定位一个元素:
find_element_by_idfind_element_by_name
find_element_by_xpath
find_element_by_link_text
find_element_by_partial_link_text
find_element_by_tag_name
find_element_by_class_name
find_element_by_css_selector
- 定位多个元素:
find_elements_by_namefind_elements_by_xpath
find_elements_by_link_text
find_elements_by_partial_link_text
find_elements_by_tag_name
find_elements_by_class_name
find_elements_by_css_selector
通过导航操作,我们就可以在找到想找的元素,然后进行接下来的处理,比如,想在一个输入框中输入数据。看3.1的那个栗子,通过导航,找到了name为p的输入框,然后使用send_keys
在输入框中写入数据:elem.send_keys("pycon")
我们知道了如何在输入框中输入数据,那如果我们碰到了下拉框该怎么办呢?
from selenium.webdriver.support.ui import Select #导入Selectselect = Select(driver.find_element_by_name('name')) #通过Select来定义该元素是下拉框
select.select_by_index(index) #通过下拉元素的位置来选择
select.select_by_visible_text("text") #通过下拉元素的内容来选择
select.select_by_value(value) #通过下拉元素的取值来选择
来看一个下拉框的HTML:
<select name="cars"> <option value ="volvo">沃尔沃</option>
<option value ="bmw">宝马</option>
<option value="benz">奔驰</option>
<option value="audi">奥迪</option>
</select>
结合上面的例子:
from selenium.webdriver.support.ui import Select select = Select(driver.find_element_by_name('cars')) #找到name为cars的select标签
select.select_by_index(1) #下拉框选中沃尔沃
select.select_by_visible_text("宝马") #下拉框选中宝马
select.select_by_value("benz") #下拉框选中奥迪
嗯...,让我想想还有什么... ...。对了,还有一个操作特别常用,就是点击操作。这个很简单:elem.click()
在找到的元素后面加上click()就可以了。
3.3 Cookies
我们想要爬取的网站有些可能需要登录,这样就需要在请求网站的时候添加Cookies。
driver.get("http://www.example.com") #先请求一个网页cookie = {‘name’ : ‘foo’, ‘value’ : ‘bar’} #设置cookie内容
driver.add_cookie(cookie) #添加cookie
3.4 其他
还有其他的功能,比如拖拽页面的元素、浏览器切换、处理弹出框口等。我就不一一列举了,有需要的小伙伴儿们去看看官网吧。
五、后语
我们的PhatomJS 和Selenium 已经安装完成,并且了解了他们的使用。
这篇就先到这里吧,下一篇开始改造我们的小爬虫喽。
在上一篇博文中,我们的爬虫面临着一个问题,在爬取Unsplash网站的时候,由于网站是下拉刷新,并没有分页。所以不能够通过页码获取页面的url来分别发送网络请求。我也尝试了其他方式,比如下拉的时候监控http请求,看看请求是否有规律可以模拟。后来发现请求并没有规律,也就是不能够模拟http请求来获取新的数据(也可能是我水平有限,哪位童鞋找到了规律一定要告诉我哦)。那么就只有模拟下拉操作了。
想要模拟下拉操作,我们需要用到两个工具,一个是PhatomJs,一个是Selenium。
PhatomJS其实就是一个没有界面的浏览器,最主要的功能是能够读取js加载的页面。
Selenium实质上是一个自动化测试工具,能够模拟用户的一些行为操作,比如下拉网页。
一直有个说法,Python + PhatomJS + Selenium 是爬虫的无敌三件套,基本能够实现所有爬虫需求。
OK,我们分别介绍下他们的使用,然后开始我们的实战。
二、运行环境
我的运行环境如下:
系统版本
Windows10。
Python版本
Python3.5,推荐使用Anaconda 这个科学计算版本,主要是因为它自带一个包管理工具,可以解决有些包安装错误的问题。去Anaconda官网,选择Python3.5版本,然后下载安装。
IDE
我使用的是PyCharm,是专门为Python开发的IDE。这是JetBrians的产品,点我下载。
三、PhatomJS
1. 简介
PhatomJS是一个WebKit内核的浏览器引擎,它能像浏览器一样(它就是一个浏览器,只不过没有界面)解析网页,以及运行JavaScript脚本。
迄今为止,我们的实战小爬虫只是在模拟http请求,然后获取response,从response中解析HTML代码获得想要的数据。但是,网页中有些数据是用js动态加载的,这样,我们使用使用http请求获得的数据中并不包含js动态加载的内容。比如我在本系列的第一篇博文中请求了一下网易云音乐的网站,本来想用网易云音乐做实战示例的(我的设计师小伙伴儿的另一个需求),不过由于它是由js动态加载的,用不到requests库,所以就先以Unsplash网站为实例了。写完Unsplash网站的爬虫后就开始网易云音乐的实战!
那么,怎么判断一个网站的内容是不是js动态加载的呢?
打开网易云音乐,在页面上点击右键-->View page source。会弹出一个新窗口,在新窗口中搜索你想要爬取的内容,发现搜不到。那就肯定是js动态加载的了。
比如看下图中的选中图片,下面有文字:“影视歌曲|重新演绎经典 听翻唱焕发新生命力”。
我们在View page source页面搜索该内容,发现搜索不到,可见这部分内容是由js动态加载的。
好了,进入正题,来看看PhatomJS如何使用。
2. 安装 PhatomJS
PhatomJS 不能使用conda install 或者pip install 来安装。需要去官网下载,选择你的系统版本。下载完成的是一个压缩包,解压到你想存放的目录(我放在了“C:\Program Files\” 目录)。
接下来需要把PhatomJS配置成环境变量,这样就可以直接调用了。
步骤:
1). 按win+E快捷键打开文件资源管理器“,在左侧的“此电脑”上点击右键,选择“属性”。
2). 在打开的窗口中左侧,点击“高级系统设置”。
3). 在弹出的窗口中点击“环境变量”。
4). 在新窗口中选择“PATH”,在下方点击编辑按钮。
5). 把phatomjs.exe所在的目录添加到path中即可。
这样,安装过程就搞定了。
3. PhatomJS 的使用
在网上搜了一下,没有找到中文的官网文档,只找到了PhatomJS英文官方文档。
3.1 举个栗子
先来一个官网上的例子,PhatomJS执行js文件,输出“Hello, World!”
新建一个js文件,包含下面的代码,然后保存为hello.js。
console.log('Hello, world!');phantom.exit(); #用来终止phtomjs程序
打开cmd命令窗口,进入到hello.js 文件所在目录,执行下面的命令:phantomjs hello.js
输出:Hello, world!
这个例子虽然方法比较笨,需要先创建一个js文件,然后再去执行。但是演示了PhatomJS的一个很重要的功能,就是执行js代码。我们后面会用到它来执行下拉操作哦。
3.2 再来个栗子
我们使用PhatomJS来请求一个网页,然后把网页截图保存。
创建一个js文件,包含下面的代码,保存为music.js
var page = require('webpage').create();page.open('http://music.163.com/', function(status) {
console.log("Status: " + status);
if(status === "success") {
page.render('music.png');
}
phantom.exit();
});
然后使用cmd命令窗口,在music.js文件所在目录,执行下面的命令:phatomjs music.js
这样会有一个屏幕截图保存在文件所在的文件夹喽。
3.3 其他栗子
还有一些功能就不细细展开了,知道常用的就可以继续咱们的爬虫了。有用到其他功能的童鞋们去官网看看例子。
对了,官网还有许多栗子,奉上链接:Phatomjs官网栗子。
四、Selenium
1. 简介
Selenium是一个自动化测试框架,广泛的用于自动化测试领域(是不是真的广泛用于自动化测试领域我也不知道,没怎么搞过自动化测试 -_-!,这是我臆测的 = ̄ω ̄=)。因为它能够模拟人工操作,比如能在浏览器中点击按钮、在输入框中输入文本、自动填充表单、还能进行浏览器窗口的切换、对弹出窗口进行操作。也就是说你能手动做的东西,基本都能用它来实现自动化!
自己总结的大白话介绍~,大家凑合看哦。主要是文学水平有限,青春期的时候还想当一个文艺青年,没事儿矫情矫情写点东西,还注重个押韵啥的,学了理工科以后,矫情的东西受不了了,喜欢直接了当的。哎呦,跑偏了,赶紧回归正题!
该框架还支持多种语言:Java、C#、Python、Ruby、PHP、Perl、JavaScript。
当然,我们使用的是面向Python语言的API。
2. 安装 Selenium
可以使用pip install selenium
来安装。使用Anaconda3版本的童鞋们,conda install selenium
在我的机器上不会下载,未找到原因。但是同样使用pip install selenium
安装成功了。通过在命令行里面输入conda list
,可以看到已经安装的包。
同时装有Python2.7和Python3.5的童鞋,使用下面的命令来安装。py -3 -m pip install selenium
3. Selenium 的使用
Selenium支持很多语言的使用,上面也提到了。其他语言的使用我没有接触过,直接看Python语言的使用。官网:Selenium with Python。
3.1 同样先来个栗子
因为PhatomJS没有界面,在使用的时候没有直观感受。所以,我们暂时使用Chrome浏览器代替PhatomJS。
首先下载Chrome浏览器驱动:下载地址,选择自己的系统版本,然后下载。这是一个压缩包,解压后存到一个目录中,然后把该目录添加到环境变量。因为上面的PhatomJS已经演示过添加环境变量的流程,这里就不赘述了。
在PyCharm中输入下面代码,然后运行看看有什么反应。
from selenium import webdriver #导入Selenium的webdriverfrom selenium.webdriver.common.keys import Keys #导入Keys
driver = webdriver.Chrome() #指定使用的浏览器,初始化webdriver
driver.get("http://www.python.org") #请求网页地址
assert "Python" in driver.title #看看Python关键字是否在网页title中,如果在则继续,如果不在,程序跳出。
elem = driver.find_element_by_name("q") #找到name为q的元素,这里是个搜索框
elem.clear() #清空搜索框中的内容
elem.send_keys("pycon") #在搜索框中输入pycon
elem.send_keys(Keys.RETURN) #相当于回车键,提交
assert "No results found." not in driver.page_source #如果当前页面文本中有“No results found.”则程序跳出
driver.close() #关闭webdriver
哎呀,其实浏览器的变化流程我都写到上面的代码的注释中了,就不再说一遍了哦。
通过上面的例子,我们可以大概的了解了Selenium都能做什么。个人认为其中比较重要的就是定位,即找到页面中的元素,然后进行相关操作。
3.2 导航操作 Navigating
导航操作的使用非常简单,完全可以通名字就知道它们是干什么的,不信先给你几个例子瞧瞧:
element = driver.find_element_by_id("passwd-id") #通过id获取元素element = driver.find_element_by_name("passwd") #通过name获取元素
element = driver.find_element_by_xpath("//input[@id='passwd-id']") #通过使用xpath匹配获取元素
下面列出详细的定位方法。有定位一个元素的,也有定位多个元素的。
- 定位一个元素:
find_element_by_idfind_element_by_name
find_element_by_xpath
find_element_by_link_text
find_element_by_partial_link_text
find_element_by_tag_name
find_element_by_class_name
find_element_by_css_selector
- 定位多个元素:
find_elements_by_namefind_elements_by_xpath
find_elements_by_link_text
find_elements_by_partial_link_text
find_elements_by_tag_name
find_elements_by_class_name
find_elements_by_css_selector
通过导航操作,我们就可以在找到想找的元素,然后进行接下来的处理,比如,想在一个输入框中输入数据。看3.1的那个栗子,通过导航,找到了name为p的输入框,然后使用send_keys
在输入框中写入数据:elem.send_keys("pycon")
我们知道了如何在输入框中输入数据,那如果我们碰到了下拉框该怎么办呢?
from selenium.webdriver.support.ui import Select #导入Selectselect = Select(driver.find_element_by_name('name')) #通过Select来定义该元素是下拉框
select.select_by_index(index) #通过下拉元素的位置来选择
select.select_by_visible_text("text") #通过下拉元素的内容来选择
select.select_by_value(value) #通过下拉元素的取值来选择
来看一个下拉框的HTML:
<select name="cars"> <option value ="volvo">沃尔沃</option>
<option value ="bmw">宝马</option>
<option value="benz">奔驰</option>
<option value="audi">奥迪</option>
</select>
结合上面的例子:
from selenium.webdriver.support.ui import Select select = Select(driver.find_element_by_name('cars')) #找到name为cars的select标签
select.select_by_index(1) #下拉框选中沃尔沃
select.select_by_visible_text("宝马") #下拉框选中宝马
select.select_by_value("benz") #下拉框选中奥迪
嗯...,让我想想还有什么... ...。对了,还有一个操作特别常用,就是点击操作。这个很简单:elem.click()
在找到的元素后面加上click()就可以了。
3.3 Cookies
我们想要爬取的网站有些可能需要登录,这样就需要在请求网站的时候添加Cookies。
driver.get("http://www.example.com") #先请求一个网页cookie = {‘name’ : ‘foo’, ‘value’ : ‘bar’} #设置cookie内容
driver.add_cookie(cookie) #添加cookie
3.4 其他
还有其他的功能,比如拖拽页面的元素、浏览器切换、处理弹出框口等。我就不一一列举了,有需要的小伙伴儿们去看看官网吧。
五、后语
我们的PhatomJS 和Selenium 已经安装完成,并且了解了他们的使用。
这篇就先到这里吧,下一篇开始改造我们的小爬虫喽。
以上是 Python爬虫小白入门(四)PhatomJS+Selenium第一篇 的全部内容, 来源链接: utcz.com/z/386719.html