基于Scrapy框架的微博评论爬虫实战

开发 后端
今天来跟大家分享一下,基于Scrapy的微博爬虫应该怎么写。

 [[434087]]

大家好,我是菜鸟哥!

今天来跟大家分享一下,基于Scrapy的微博爬虫应该怎么写。

之前分享过一个Requests对微博评论的爬虫,已经对页面进行了全面的分析,本文主要注重对数据采集、存储和文件配置进行分析讲解。

一、Scrapy简介

首先,我们需要对Scrapy框架有一个简单的了解,不然在你书写代码的时候会非常的麻烦。

01 安装

使用pip对Scrapy进行安装,代码如下:

  1. pip install scrapy 

02 创建项目

安装好Scrapy框架之后,我们需要通过终端,来创建一个Scrapy项目,命令如下:

  1. scrapy startproject weibo 

创建好后的项目结构,如下图:

这里我们来简单介绍一下结构中我们用到的部分的作用,有助于我们后面书写代码。

spiders是存放爬虫程序的文件夹,将写好的爬虫程序放到该文件夹中。items用来定义数据,类似于字典的功能。settings是设置文件,包含爬虫项目的设置信息。pipelines用来对items中的数据进行进一步处理,如:清洗、存储等。

二、数据采集

经过上面的简单介绍,我们现在对Scrapy框架有了简单的了解,下面我们开始写数据采集部分的代码。

01. 定义数据

首先,我们对数据存储的网页进行观察,方便我们对获取数据进行定义

通过对网页中数据存储的形式进行观察后,items.py中对数据的定义方式为:

  1. data = scrapy.Field() 

02. 编辑爬虫

接下来我们在spiders文件夹里面创建一个weibo.py爬虫程序用以书写请求的爬虫代码

代码如下: 

  1. import scrapy  
  2. class WeiboSpider(scrapy.Spider):  
  3.    name = 'weibo'  #用于启动微博程序  
  4.    allowed_domains = ['m.weibo.cn']  #定义爬虫爬取网站的域名  
  5.    start_urls = ['https://m.weibo.cn/comments/hotflow?id=4700480024348767&mid=4700480024348767&max_id_type=0']  #定义起始网页的网址  
  6.   for i in res['data']['data']:  
  7.      weibo_item = WeiboItem()  
  8.      weibo_item['data'] = re.sub(r'<[^>]*>', '', i['text'])  
  9.      # start_url = ['https://m.weibo.cn/comments/hotflow?id=4700480024348767&mid=4700480024348767&'+str(max_id)+'&max_id_type=0']  
  10.      yield weibo_item  #将数据回传给items 

03. 遍历爬取

学过Requests对微博评论进行爬虫的朋友应该知道,微博评论的URL构造方式,这里我直接展示构造代码: 

  1. max_id_type = res['data']['max_id_type']  
  2. if int(max_id_type) == 1:  
  3.    new_url = 'https://m.weibo.cn/comments/hotflow?id=4700480024348767&mid=4700480024348767&max_id=' + str(  
  4.        max_id) + '&max_id_type=1 
  5. else:  
  6.    new_url = 'https://m.weibo.cn/comments/hotflow?id=4700480024348767&mid=4700480024348767&max_id=' + str(  
  7.        max_id) + '&max_id_type=0

三、数据存储

光爬取下来数据是不行的,我们还需要对数据进行存储,这里我采用的是csv文件,来对评论数据进行存储,代码如下: 

  1. class CsvItemExporterPipeline(object):  
  2.    def __init__(self):  
  3.        # 创建接收文件,初始化exporter属性  
  4.        self.file = open('text.csv','ab')  
  5.        self.exporter = CsvItemExporter(self.file,fields_to_export=['data'])  
  6.        self.exporter.start_exporting() 

四、程序配置

光写上面的代码是无法爬取到评论的,因为我们还没有对整个程序进行有效的配置,下面我们就在settings.py里面进行配置。

01. 不遵循robots协议

需要对robts协议的遵守进行修改,如果我们遵循网页的robots协议的话,那无法进行爬取,代码如下: 

  1. # Obey robots.txt rules  
  2. ROBOTSTXT_OBEY = False 

02. 使用自定义cookie

我们知道,想要爬取微博评论,需要带上自己的cookie用以信息校验,因为我们的cookie是在headers中包裹着的,所以我们需要将COOKIES_ENABLED改为False,代码如下: 

  1. # Disable cookies (enabled by default)  
  2. COOKIES_ENABLED = False 

03. 打开管道

想要进行数据存储,还需要在配置中,打开通道,用以数据传输,代码如下: 

  1. # Configure item pipelines  
  2. # See https://docs.scrapy.org/en/latest/topics/item-pipeline.html  
  3. ITEM_PIPELINES = {  
  4.   'weibo.pipelines.CsvItemExporterPipeline': 1,  
  5.   'weibo.pipelines.WeiboPipeline': 300,  

五、启动程序

我们在spiders同级的的目录下创建一个wb_main.py文件,便于我们在编辑器中启动程序,代码如下: 

  1. from scrapy import cmdline  
  2. #导入cmdline模块,可以实现控制终端命令行。  
  3. cmdline.execute(['scrapy','crawl','weibo'])  
  4. #用execute()方法,输入运行scrapy的命令。 

六、总结

本文详细的介绍了,如何用Scrapy框架来对微博评论进行爬取,建议大家动手实操一下,便于理解。本文仅供学习参考,不做它用。 

 

责任编辑:庞桂玉 来源: 菜鸟学Python
相关推荐

2021-11-08 14:38:50

框架Scrapy 爬虫

2015-11-24 09:43:37

微博Docker混合云

2017-11-29 15:21:53

PythonScrapy爬虫

2021-07-01 22:05:31

Python微博评论

2017-05-15 21:00:15

大数据Scrapy爬虫框架

2015-05-11 17:30:22

苹果库克

2018-08-08 11:40:24

ScrapyRequest网络爬虫

2021-06-02 22:18:11

Python关键词微博

2021-09-30 09:00:34

Scrapy网络爬虫Python

2021-01-08 09:07:19

Scrapy框架爬虫

2021-07-13 08:09:34

微博推特评论

2021-05-18 13:25:28

feapder爬虫Python

2020-04-27 21:19:21

小米MIUI12

2020-12-07 11:23:32

Scrapy爬虫Python

2017-09-16 17:45:32

数据采集Scrapy爬虫

2021-04-12 07:36:15

Scrapy爬虫框架

2017-10-10 13:13:48

2020-03-01 17:14:22

数据MySQL数据库

2018-01-02 16:30:27

Python爬虫微博移动端

2020-11-11 10:58:59

Scrapy
点赞
收藏

51CTO技术栈公众号