解密搜索引擎技术之爬虫Larbin

开源
Larbin是一个用C++开发的开源网络爬虫,有一定的定制选项和较高的网页抓取速度。

一、简介

Larbin是一个用C++开发的开源网络爬虫,有一定的定制选项和较高的网页抓取速度。

Larbin爬虫结构图及主要模块对应关系如下图所示:

Larbin的运行过程可以描述如下:种子URL文件最初初始化*URLsDisk,读取到namedSiteList中,通过adns库调用,逐渐往Fifo<NamedSite> *dnsSites和Fifo<IPSite>*okSites内装入链接,而Fetch模块直接从Fifo<IPSite> *okSites中获得用于抓取的URL,为抓取到的网页建立hash表,以防止网页的重复抓取。然后通过html类的方法从下载到的网页中析取出新的URL,新加入前端队列的URL要求符合robots filter,并通过hash表对URL去重。一次抓取结束后进行相关的读写操作,然后通过poll函数选择适合的套接字接口,开始新的抓取。这样抓取就可以一直循环下去,直到用户终止或者发生中断。

更多关于Larbin项目的细节(包括源码)可以参看这里

二、安装

这里以在CentOS 6.2下源码安装larbin-2.6.3.tar.gz为例说明之。

解压到指定目录后,如果直接./configure,一般会出现缺少依赖makedepend的错误,如下安装改依赖即可:

  1. #yum install makedepend  
  2. #./configure 

./configure成功后,如果直接make同样会出现错误,主要如下:

  1. parse.c:113: error: conflicting types for ‘adns__parse_domain’  
  2. internal.h:569: note: previous declaration of ‘adns__parse_domain’ was here 

根据提示直接去adns目录找到internal.h注释掉该函数即可。

再次make,依然出现错误,这次主要是因为代码用老式C代码编写,具体表现如下:

  1. input.cc:6:22: error: iostream.h: No such file or directory 

采用如下命令替换 iostream.h为 iostream

  1. #sed -i -e 's/iostream.h/iostream/g' `grep -rl iostream.h *` 

注意上面包含grep的不是单引号而是Esc键下面那个符号`。

再次make,出现大量错误,原因同上,表现如下:

  1. hashTable.cc:32: error: ‘cerr’ was not declared in this scope  
  2. hashTable.cc:41: error: ‘cerr’ was not declared in this scope  
  3. hashTable.cc:42: error: ‘endl’ was not declared in this scop 

执行如下命令将cerr和endl替换为std::cerr和std::endl:

  1. #sed -i -e 's/cerr/std::cerr/g' `grep -rl cerr *`  
  2. #sed -i -e 's/endl/std::endl/g' `grep -rl endl *` 

再次make就不会有问题了,编译完后在当前目录下会产生larbin可执行文件。

  1. #./larbin  
  2. larbin_2.6.3 is starting its search 

看到上面屏幕输出说明成功启动larbin了。

三、配置

上面方式启动larbin会使用默认配置文件larbin.conf,当然也可以如下来指定配置文件:

  1. #./larbin -c conf_file 

larbin的配置是通过options.h和larbin.conf结合来完成的,前者修改后需要重新编译,后者修改后只需要重启即可。

在options.h中以下参数最好打开:

  1. #define SIMPLE_SAVE //简单保存抓取页面,存在save/dxxxxx/fyyyyy文件中,每个目录下2000个文件  
  2. #define FOLLOW_LINKS //继续抓取子链接  
  3. #define CGILEVEL 1 //是否获得CGI  
  4. #define DEPTHBYSITE //进入新的URL时是否初始化深度  
  5. #define RELOAD //设置此项时可以从上次终止处继续爬取,使用-scratch 选项从上次结束处重启  
  6. #define CRASH //用于报告严重的bugs用,以gmake debug模式编译时使用 

配置完别忘了make。

在larbin.conf中以下参数最好打开:

  1. httpPort 8081 //用于查看爬行结果的web服务端口  
  2. inputPort 1976 //用于设置爬行url的telnet服务端口  
  3. pagesConnexions 100 //并行抓取网页的连接数  
  4. dnsConnexions 5 //并行DNS解析的数量  
  5. depthInSite 5 //对一个站点的爬取深度  
  6. waitDuration 60 //访问同一服务器的时间间隔,不可低于30s,建议60s  
  7. startUrl http://slashdot.org/ //起始抓取页面 

关于配置的详细可以参见这里

配置好就可以启动服务开始抓取了。

关于起始抓取url除了可以设置外,还可以通过telnet localhost 1976来设置,在终端提示符下输入:

  1. priority:1 depth:3 test:0  
  2. http://www.baidu.com 

这里把优先级设为了1,保证你输入的URL比一般的URL优先被抓取,如果输入了很多URL,把优先级设为0,防止run out of memory。

depth指定抓取链接的深度,一般不要超过5。

test设为0表示如果一面网页之前已经抓取过了,并且现在又要抓取,那就抓取,test设为1可以防止重复的抓取。

这里设置的效果同larbin.conf中的startUrl。

四、使用

运行:./larbin(或“nohup ./larbin &”,可使larbin在后台运行)

中止:Ctrl+C        

重启:./larbin -scratch

注意停止larbin的时候不要用Ctrl+z,那样当你再次./larbin或者./larbin -scratch的时候,会出现端口已被占用,无法重新启动。

另外,可通过http://localhost:8081来访问larbin,从页面上获取一些关于larbin运行的信息。

原文链接:http://blog.chinaunix.net/uid-22312037-id-4390559.html

责任编辑:牛小雨 来源: scq2099yt的博客
相关推荐

2014-08-13 11:04:02

搜索引擎排序算法

2010-08-02 16:08:39

ibmdwJava搜索引擎

2020-03-20 10:14:49

搜索引擎倒排索引

2017-08-07 08:15:31

搜索引擎倒排

2019-09-26 09:34:51

网络爬虫搜索引擎大数据

2011-06-20 18:23:06

SEO

2011-05-17 17:19:14

2009-05-06 14:35:17

搜索引擎PHP技术

2020-08-10 14:39:30

搜索引擎

2018-06-24 08:53:42

Tomcat理搜索引擎爬虫

2010-04-07 09:25:00

2022-10-11 09:27:45

搜索引擎es索引

2009-02-19 09:41:36

搜索引擎搜狐百度

2010-04-20 11:43:46

2012-09-07 13:22:21

搜索搜狗

2022-10-08 09:13:18

搜索引擎⽹站

2009-09-22 16:23:52

搜索引擎

2011-06-03 10:19:53

2009-12-10 15:09:46

PHP搜索引擎类

2023-09-21 15:05:12

ChatGPT搜索引擎
点赞
收藏

51CTO技术栈公众号