Python爬虫模拟登录带验证码网站

开发 后端
爬取网站时经常会遇到需要登录的问题,这是就需要用到模拟登录的相关方法。python提供了强大的url库,想做到这个并不难。这里以登录学校教务系统为例,做一个简单的例子。

 爬取网站时经常会遇到需要登录的问题,这是就需要用到模拟登录的相关方法。python提供了强大的url库,想做到这个并不难。这里以登录学校教务系统为例,做一个简单的例子。

首先得明白cookie的作用,cookie是某些网站为了辨别用户身份、进行session跟踪而储存在用户本地终端上的数据。因此我们需要用Cookielib模块来保持网站的cookie。

可以发现这个验证码是动态更新的每次打开都不一样,一般这种验证码和cookie是同步的。其次想识别验证码肯定是吃力不讨好的事,因此我们的思路是首先访问验证码页面,保存验证码、获取cookie用于登录,然后再直接向登录地址post数据。

首先通过抓包工具或者火狐或者谷歌浏览器分析登录页面需要post的request和header信息。以谷歌浏览器为例。

其中需要提交的表单数据中txtUserName和TextBox2分别用户名和密码。

现在直接到关键部分 

上代码!! 

  1. import urllib2  
  2. import cookielib  
  3. import urllib 
  4. import re  
  5. import sys  
  6. '''模拟登录'''  
  7. reload(sys)  
  8. sys.setdefaultencoding("utf-8")  
  9. # 防止中文报错  
  10. CaptchaUrl = "http://202.115.80.153/CheckCode.aspx"  
  11. PostUrl = "http://202.115.80.153/default2.aspx"  
  12. # 验证码地址和post地址  
  13. cookie = cookielib.CookieJar()  
  14. handler = urllib2.HTTPCookieProcessor(cookie)  
  15. opener = urllib2.build_opener(handler)  
  16. # 将cookies绑定到一个opener cookie由cookielib自动管理  
  17. username = 'username'  
  18. password = 'password123'  
  19. # 用户名和密码  
  20. picture = opener.open(CaptchaUrl).read()  
  21. # 用openr访问验证码地址,获取cookie  
  22. local = open('e:/image.jpg', 'wb')  
  23. local.write(picture)  
  24. local.close()  
  25. # 保存验证码到本地  
  26. SecretCode = raw_input('输入验证码:') 
  27. # 打开保存的验证码图片 输入  
  28. postData = {  
  29. '__VIEWSTATE': 'dDwyODE2NTM0OTg7Oz6pH0TWZk5t0lupp/tlA1L+rmL83g==',  
  30. 'txtUserName': username,  
  31. 'TextBox2': password,  
  32. 'txtSecretCode': SecretCode,  
  33. 'RadioButtonList1': '学生',  
  34. 'Button1': '',  
  35. 'lbLanguage': '',  
  36. 'hidPdrs': '',  
  37. 'hidsc': '',  
  38.  
  39. # 根据抓包信息 构造表单  
  40. headers = {  
  41. 'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8',  
  42. 'Accept-Language': 'zh-CN,zh;q=0.8',  
  43. 'Connection': 'keep-alive',  
  44. 'Content-Type': 'application/x-www-form-urlencoded',  
  45. 'User-Agent': 'Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/46.0.2490.86 Safari/537.36',  
  46.  
  47. # 根据抓包信息 构造headers  
  48. data = urllib.urlencode(postData)  
  49. # 生成post数据 ?key1=value1&key2=value2的形式  
  50. request = urllib2.Request(PostUrl, data, headers)  
  51. # 构造request请求  
  52. try:  
  53. response = opener.open(request)  
  54. result = response.read().decode('gb2312')  
  55. # 由于该网页是gb2312的编码,所以需要解码  
  56. print result  
  57. # 打印登录后的页面  
  58. except urllib2.HTTPError, e:  
  59. print e.code  
  60. # 利用之前存有cookie的opener登录页面 

登录成功后便可以利用该openr访问其他需要登录才能访问的页面。 

 

责任编辑:庞桂玉 来源: 马哥Linux运维
相关推荐

2021-06-10 18:24:59

反爬虫验证码爬虫

2015-03-17 09:28:04

2020-07-30 09:34:10

安全信息安全Web

2009-08-12 11:05:00

2022-02-02 20:21:24

短信验证码登录

2013-06-19 10:19:59

2022-07-20 09:52:44

Go语言短信验证码

2020-10-28 09:44:22

Pythonn爬虫代码

2024-01-29 08:32:10

Python验证码识别

2020-11-16 07:28:53

验证码

2022-02-11 07:10:15

验证码

2021-01-19 10:29:34

短信验证码密码

2015-03-23 17:58:04

验证码倒计时并行

2015-09-21 15:31:05

php实现验证码

2017-12-21 07:38:19

2009-02-09 14:17:36

2009-08-11 14:05:28

JSP验证码

2017-05-18 09:36:11

大数据爬虫验证码

2018-11-23 09:36:11

Python验证码KNN
点赞
收藏

51CTO技术栈公众号