用Selenium来爬取数据?真挺简单的!

开发 后端
今天将给大家详解如何用Selenium爬取数据,并最后附上一个真实的案例。

我们知道很多时候爬虫也不是万能的,这个时候就需要我们的自动化测试框架了。

于是Selenium就应运而生了,它可以算的上是自动化测试框架中的佼佼者,因为它解决了大多数用来爬取页面的模块的一个永远的痛,那就是Ajax异步加载 。今天将给大家详解如何用Selenium爬取数据,并最后附上一个真实的案例。

一 、Selenium介绍

Selenium是一个web的自动化测试工具,最初是为网站自动化测试而开发的,Selenium可以直接运行在浏览器上,它支持所有主流的浏览器,可以接收指令,让浏览器自动加载页面,获取需要的数据,甚至页面截屏 。

chromedriver是一个驱动Chrome浏览器的驱动程序,使用他才可以驱动浏览器。当然针对不同的浏览器有不同的driver。以下列出了不同浏览器及其对应的driver:

  • Chrome:https://sites.google.com/a/chromium.org/chromedriver/downloads
  • Firefox:https://github.com/mozilla/geckodriver/releases
  • Edge:https://developer.microsoft.com/en-us/microsoft-edge/tools/webdriver/
  • Safari:https://webkit.org/blog/6900/webdriver-support-in-safari-10/

安装配置chromedriver:https://blog.csdn.net/weixin_43901998/article/details/88087832

安装Selenium:

pip install selenium

安装好浏览器后,将浏览器驱动放在浏览器同级目录下,这样前期工作就算都预备好了。

  • 注:不要随便乱下浏览器和驱动,每个浏览器和驱动器的版本都必须是一一对应的,不是通用的。

二、快速入门

1、与浏览器建立连接

# 1.加载网页
from selenium import webdriver
driver = webdriver.PhantomJS(executable_path=r'"安装目录") # 也可以把chrome添加到python文件路径下,就不用写executable_path=r'"安装目录"
driver.get("https://www.baidu.com") # 请求
driver.save_screenshot("baidu.png") # 截图
# 退出
driver.quit()

2、selenium快速入门

from selenium import webdriver
# 实例化浏览器
driver = webdriver.Chrome()
# 发送请求
driver.get('https://www.baidu.com')
# 截图
driver.save_screenshot("baidu.png")
# 最大化窗口
driver.maximize_window()
# 退出浏览器
driver.quit()

三、定位元素

  • find_element_by_id:根据id来查找某个元素。
submitTag = driver.find_element_by_id('su')
submitTag1 = driver.find_element(By.ID,'su')
  • find_element_by_class_name:根据类名查找元素。
submitTag = driver.find_element_by_class_name('su')
submitTag1 = driver.find_element(By.CLASS_NAME,'su')
  • find_element_by_name:根据name属性的值来查找元素。
submitTag = driver.find_element_by_name('email')
submitTag1 = driver.find_element(By.NAME,'email')
  • find_element_by_tag_name:根据标签名来查找元素。
submitTag = driver.find_element_by_tag_name('div')
submitTag1 = driver.find_element(By.TAG_NAME,'div')
  • find_element_by_xpath:根据xpath语法来获取元素。
submitTag = driver.find_element_by_xpath('//div')
submitTag1 = driver.find_element(By.XPATH,'//div')

要注意,find_element是获取第一个满足条件的元素。find_elements是获取所有满足条件的元素。

四、浏览器操作

from selenium import webdriver
# 实例化浏览器
c = webdriver.Chrome()
# 发送请求
c.get('https://www.baidu.com')

1、获取本页面URL

c.current_url

2、获取日志

c.log_types  #获取当前日志类型
c.get_log('browser')#浏览器操作日志
c.get_log('driver') #设备日志
c.get_log('client') #客户端日志
c.get_log('server') #服务端日志
##3.窗口操作
c.maximize_window()#最大化
c.fullscreen_window() #全屏
c.minimize_window() #最小化
c.get_window_position() #获取窗口的坐标
c.get_window_rect()#获取窗口的大小和坐标
c.get_window_size()#获取窗口的大小
c.set_window_position(100,200)#设置窗口的坐标
c.set_window_rect(100,200,32,50) #设置窗口的大小和坐标
c.set_window_size(400,600)#设置窗口的大小
c.current_window_handle #返回当前窗口的句柄
c.window_handles #返回当前会话中的所有窗口的句柄

3、设置延时

c.set_script_timeout(5) #设置脚本延时五秒后执行
c.set_page_load_timeout(5)#设置页面读取时间延时五秒

4、关闭

c.close() #关闭当前标签页
c.quit() #关闭浏览器并关闭驱动

5、打印网页源代码

c.page_source

6、屏幕截图操作

c.save_screenshot('1.png')#截图,只支持PNG格式
c.get_screenshot_as_png() #获取当前窗口的截图作为二进制数据
c.get_screenshot_as_base64() #获取当前窗口的截图作为base64编码的字符串
8.前进后退刷新
c.forward() #前进
c.back() #后退
c.refresh()#刷新

7、Cookies操作

c.get_cookie('BAIDUID') #获取指定键的Cookies
c.get_cookies() #获取所有的Cookies
for y in c.get_cookies():
x=y
if x.get('expiry'):
x.pop('expiry')
c.add_cookie(x) #添加Cookies
c.delete_cookie('BAIDUID') #删除指定键的Cookies内容
c.delete_all_cookies() #删除所有cookies

五、操作表单元素

操作输入框:分为两步。

第一步:找到这个元素。

第二步:使用send_keys(value),将数据填充进去

使用clear方法可以清除输入框中的内容

inputTag.clear()

操作checkbox

因为要选中checkbox标签,在网页中是通过鼠标点击的。因此想要选中checkbox标签,那么先选中这个标签,然后执行click事件。

rememberTag = driver.find_element_by_name("rememberMe")
rememberTag.click()

操作按钮

操作按钮有很多种方式。比如单击、右击、双击等。这里讲一个最常用的。就是点击。直接调用click函数就可以了。

inputTag = driver.find_element_by_id('su')
inputTag.click()

选择select

select元素不能直接点击。因为点击后还需要选中元素。这时候selenium就专门为select标签提供了一个类selenium.webdriver.support.ui.Select。将获取到的元素当成参数传到这个类中,创建这个对象。以后就可以使用这个对象进行选择了[1]。

切换iframe

我们知道网页中有一种节点叫作 iframe,也就是子 Frame,相当于页面的子页面,它的结构和外部网页的结构完全一致。Selenium打开页面后,默认是在父级 Frame 里面操作,而此时如果页面中还有子 Frame,Selenium是不能获取到子 Frame 里面的节点的。这时就需要使用 switch_to.frame 方法来切换 Frame。

接下来通过豆瓣模拟登录来切换iframe,示例如下:

from selenium import webdriver
import time
url = 'https:www.douban.com'
driver = webdriver.Chrome()
driver.get(self.url)
time.sleep(3)
# 定位iframe标签
login_iframe = self.driver.find_element_by_xpath('//*[@id="anony-reg-new"]/div/div[1]/iframe')
# 切换iframe标签
driver.switch_to.frame(login_iframe)

六、行为链

有时候在页面中的操作可能要有很多步,那么这时候可以使用鼠标行为链类ActionChains来完成。比如现在要将鼠标移动到某个元素上并执行点击事件。

actions = ActionChains(driver)
actions.move_to_element(inputTag)
actions.send_keys_to_element(inputTag,'python')
actions.move_to_element(submitTag)
actions.context_click()
actions.click(submitTag)
actions.perform()

还有更多的鼠标相关的操作。

  • click_and_hold(element):点击但不松开鼠标。
  • context_click(element):右键点击。
  • double_click(element):双击。
  • 更多方法请参考:http://selenium-python.readthedocs.io/api.html

豆瓣模拟登录(定位元素,切换iframe,以及行为链操作)。

from selenium import webdriver
import time
class Douban():
def __init__(self):
self.url = 'https:www.douban.com'
self.driver = webdriver.Chrome()
def login(self):
self.driver.get(self.url)
time.sleep(3)
# 定位iframe标签
login_iframe = self.driver.find_element_by_xpath('//*[@id="anony-reg-new"]/div/div[1]/iframe')
# 切换iframe标签
self.driver.switch_to.frame(login_iframe)
# 第一张截图(登录前)
self.driver.save_screenshot('db1.png')
# 定位密码输入框
self.driver.find_element_by_class_name('account-tab-account').click()
# 输入手机号
self.driver.find_element_by_id('username').send_keys('156xxxxxx26')
# 输入密码
self.driver.find_element_by_id('password').send_keys('.......')
# 点击登录按钮
self.driver.find_element_by_class_name('btn-account').click()
time.sleep(3)
# 第二张截图(登陆后)
self.driver.save_screenshot('db2.png')
def out(self):
'''调用内建的稀构方法,在程序退出的时候自动调用
类似的还可以在文件打开的时候调用close,数据库链接的断开
'''
self.driver.quit()
if __name__ == '__main__':
db = Douban() # 实例化
db.login() # 之后调用登陆方法

七、Selenium页面等待

Cookie操作

获取所有的cookie

cookies = driver.get_cookies()

根据cookie的name获取cookie

value = driver.get_cookie(key)

删除某个cookie

driver.delete_cookie('key')

页面等待

现在的网页越来越多采用了 Ajax 技术,这样程序便不能确定何时某个元素完全加载出来了。如果实际页面等待时间过长导致某个dom元素还没出来,但是你的代码直接使用了这个WebElement,那么就会抛出NullPointer的异常。为了解决这个问题。所以 Selenium 提供了两种等待方式:一种是隐式等待、一种是显式等待。

  • 隐式等待:调用driver.implicitly_wait。那么在获取不可用的元素之前,会先等待10秒中的时间。
driver.implicitly_wait(10)
  • 显示等待:显示等待是表明某个条件成立后才执行获取元素的操作。也可以在等待的时候指定一个最大的时间,如果超过这个时间那么就抛出一个异常。显示等待应该使用selenium.webdriver.support.excepted_conditions期望的条件和selenium.webdriver.support.ui.WebDriverWait来配合完成。
from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
driver = webdriver.Chrome()
driver.get("https://www.baidu.com/")
try:
element = WebDriverWait(driver, 10).until(
EC.presence_of_element_located((By.ID, "myDynamicElement"))
)
finally:
driver.quit()

一些其他的等待条件

  • presence_of_element_located:某个元素已经加载完毕了。
  • presence_of_all_elements_located:网页中所有满足条件的元素都加载完毕了。
  • element_to_be_clickable:某个元素是可以点击了。

更多条件请参考:http://selenium-python.readthedocs.io/waits.html

八、打开多窗口和切换页面

有时候窗口中有很多子tab页面。这时候肯定是需要进行切换的。selenium提供了一个叫做switch_to_window来进行切换,具体切换到哪个页面,可以从driver.window_handles中找到。

# 打开一个新的页面
driver.execute_script("window.open('url')")
print(driver.current_url)
# 切换到这个新的页面中
driver.switch_to_window(self.driver.window_handles[1])

九、企鹅电竞案例

下面我们用企鹅电竞为案例,演示一下如何使用Selenium爬取数据。

1、打开官网首页:通过分析页面知道全部直播的信息储存在ul(class='livelist-mod resize-list-container-280-livelist-live)下面的li里面。

但是通过测试可以发现这个页面瀑布流布局,他不需要翻页,需要滚到页面底部加载更多数据。所以:

dataNum = int(input('请输入目标直播间数量:')) # 用户决定爬取多少个直播间信息
_single = True
# 做一个死循环
while _single:
items = driver.find_elements_by_xpath("//ul[@class='livelist-mod resize-list-container-280-livelist-live']/li") # 页面的li标签(也就是一个直播间数据)
print(len(items))
if len(items) < dataNum:
# 拖动滚动条至底部
js1 = "document.documentElement.scrollTop=100000"
driver.execute_script(js1)
time.sleep(3) # 因为滚动到页面底部只需要一瞬间,休息3s是为了数据加载完全
else:
_single = False

2、我们要获取的是主题(title),界面图片链接(pic),主播名(name),人气(popu),类型(types)。

  • 这里我们只爬取了600条数据,但是让页面加载800条数据,因为这个页面加载不完全,也就是他最后面展示的数据不会显示出来(只要使用滚轮滚到底部,由于数据加载,滚轮就会往上一点,这样页面显示的数据是没有完全加载出来)。
items = driver.find_elements_by_xpath("//ul[@class='livelist-mod resize-list-container-280-livelist-live']/li")
print(len(items))
info_list = []
for item in items[:600]:
dic = {}
name = item.find_element_by_xpath("./a/div[2]/p").text # 主播名字
popularity = item.find_element_by_xpath("./a/div[2]/span").text # 人气
title = item.find_element_by_xpath('./a/h4/span[1]').text # 主题
types = item.find_element_by_xpath('./a/h4/span[2]').text # 类型
pic = item.find_element_by_xpath('./a/div[1]/img').get_attribute('src') # 图片链接
picLink = 'https:' + pic
dic['name'] = name
dic['popu'] = popularity
dic['title'] = title
dic['type'] = types
dic['pic'] = picLink
print(dic)
info_list.append(dic)

3、数据提取

这里我们把数据保存到一个csv文件中。

head = ['name','popu','title','type','pic']
with open('qiee.csv', 'w', encoding='utf-8', newline='') as f:
writer = csv.DictWriter(f, head)
writer.writeheader()
writer.writerows(info_list)
print('写入成功')

4、运行程序

开始:

结尾:

然后我们看下csv文件:

成功爬取到了想要的数据。

责任编辑:庞桂玉 来源: 印象Python
相关推荐

2021-02-15 10:32:06

C#Selenium网页

2019-01-02 12:23:30

Python金融数据爬取

2020-11-03 14:10:45

Python爬取天气爬虫

2021-10-31 23:57:33

Eslint原理

2020-03-01 17:14:22

数据MySQL数据库

2021-06-02 22:18:11

Python关键词微博

2019-01-11 10:22:31

Python数据爬取

2019-05-27 09:14:28

2015-10-29 13:22:09

php数据分析爬虫

2015-04-03 09:23:08

2016-12-08 09:30:00

图片数据库网络爬取数据清洗

2021-06-24 09:41:43

数据爬取爬虫平台

2019-09-25 20:32:26

Python前程无忧职位

2018-01-16 18:43:18

爬虫工具电影天堂

2019-07-31 16:44:40

Python网络爬虫浏览器

2021-11-24 17:22:06

网络抓取网络爬虫数据收集

2024-03-18 08:38:57

浏览器爬虫直聘

2017-07-18 09:15:23

Python Craw数据爬取

2020-12-07 10:59:01

Python数据工具

2022-06-15 08:25:07

Python天气数据可视化分析
点赞
收藏

51CTO技术栈公众号