Hadoop配置指导手册

开发 架构 Hadoop
Hadoop相信大家应该有所了解,那么如何进行Hadoop配置呢,这里就向大家介绍一下Hadoop配置和使用问题记录,欢迎大家一起来学习。

在学习Hadoop的过程中,你可能会遇到Hadoop配置和使用问题,本节和大家一起学习一下Hadoop配置方法,希望通过本节的介绍,大家对能够掌握其配置方法。

Hadoop配置和使用问题记录

关于hadoop如何配置的教程网上已经有不少了,配合hadoop主页上的说明,基本可以顺利在多台机器上配置好hadoop集群。这里记录的是我在实际配置和使用hadoop时遇到的问题,其中一些属于hadoop周边,如ssh配置时容易遇到的问题和解决方法,供大家参考。我目前是在windows xp里通过cygwin安装的hadoop,版本是0.17.2.1。

1. 安装cygwin。在www.cygwin.com下载网络安装包,在选择组件的时候建议直接把openssh组件选中,有些版本的cygwin似乎不会自动安装diffutils组件,所以需要手工选中一下,否则配置ssh时会提示缺少该组件包。

2. cygwin控制台里的缺省提示符不太习惯,用export PS1="\u@\w$"设一下好多了。

3. Hadoop配置过程中配置sshd比较简单,可以参考这个链接。在ssh-host-config时问到“Should privilege separation be used? (yes/no)”时回答no即可,如果由于安全因素要回答yes时,在启动sshd时有可能遇到“Privilege separation user sshd does not exist”的错误信息,解决方法可参考这个链接。

4. 在配置ssh使用证书方式自动验证时花了一些时间,后来觉得可能是由于机器上有两个版本的cygwin的缘故,因为在另一台机器上安装就没有出现问题。在使用ssh-keygen -t rsa命令后提示输入密码时,直接按两次回车即可。公钥的复制等过程这里不再赘述。

5. 试图在Eclipse里运行hadoop的WordCount程序时提示异常:“javax.security.auth.login.LoginException: Login failed: CreateProcess: whoami error=2”,解决方法是把c:\cygwin\bin加入系统的path环境变量,然后重启Eclipse以便改动生效。

6. 在Eclipse里运行WordCount时遇到java heap size不够的异常,在运行Hadoop配置里加入-Xms200M就可以解决。(hadoop的helloworld要求的内存比较多?)

7. 当要运行的运算依赖第三方类库时,这个链接有所讨论,但暂时没看到除了在命令行里使用hadoop jar命令以外的解决方法,比如在0.17.2和0.18.1版本里我都没有看到JobConf类里有类似addJar()这样的方法,在JobConf#setJar()里使用逗号分隔多个jar文件的方式则会报找不到文件的错误。解决方式可能有两个:a)把所需要的第三方jar文件复制到每个节点机器的jre里(暂时没有试验) b)把第三方jar包和自己的类打到一个包里。

update: 在网上找到另一种方式,通过DistributedCache实现,原文里可能有笔误,我试验正确的方法是调用DistributedCache.addArchiveToClassPath()方法,注意其***个参数必须是相对路径,如“/test/lib /my.jar”,而不能是像“hdfs://192.168.0.5:47110/test/lib/my.jar”这样的绝对路径。关于 DistributedCache的说明在里有一些。

8. 调试mapreduce程序的方式,在这个链接里讲得比较清楚了,因为很有用所以特意重复一次。如果文件存放在HDFS里,那么只需要调用JobConf#.set("mapred.job.tracker", "local");即可;如果文件也是存在本地的,还需要调用JobConf#set("fs.default.name", "local");方法。我通常让文件存在HDFS里调试,因为要使用本地文件要么参数需要改变,要么代码需要改变,维护两个环境很麻烦。在程序里用System.out.println()输出的内容可以在datanode的hadoop安装路径的logs/userlogs目录里找到。

 

9. 当使用自定义InputFormat时,特别是使用EMF模型元素作为key的时候,需要注意并不是在代码的任何地方都能得到xmi:id的值的。具体来说,在WritableComparable#write()方法里能得到(前提是该对象本来就有resource,即eobj.eResource()!=null),而在WritableComparable#readFields()里是不能得到的,在RecordWriter#write()方法里同样不能得到,因为后两者的EMF元素对象都是反序列化得到的,已经不是内存里原来的那个实例了。

10. map进行到100%后,reduce过程进行到某个数值(如16%)后就不再继续,直到被hadoop强制关闭。ok,到这里Hadoop配置完成。

【编辑推荐】

  1. 专家指导 如何进行Hadoop分布式集群配置
  2. Hbase和Hadoop操作文件性能测试
  3. Hadoop集群与Hadoop性能优化
  4. Hadoop 从Yahoo向Google的技术转折
  5. Hadoop初探

 

责任编辑:佚名 来源: csdn.net
相关推荐

2010-06-04 17:34:13

Hadoop0.20.

2010-06-04 17:21:48

2010-09-26 10:02:09

JVM优化配置

2009-12-22 11:14:38

WCF禁用安全配置

2010-06-07 18:12:39

mrtg 安装

2010-01-05 11:26:27

.net Framew

2010-07-15 09:10:08

Perl函数手册

2009-12-18 15:49:05

Ruby Rmagic

2010-01-04 16:17:50

Silverlight

2009-12-30 17:14:03

Silverlight

2014-12-24 10:24:55

Java

2010-06-03 14:42:47

Hadoop分布式集群

2010-05-19 18:03:07

2010-05-19 18:26:28

SVN服务器安装

2010-08-04 11:23:15

Flex字符串

2010-10-08 14:31:46

Javascriptsplit函数

2010-06-03 14:08:56

Hadoop创建Hba

2010-09-26 14:44:31

JVM内存监控工具

2009-12-31 15:58:11

Silverlight

2010-06-03 09:48:17

Hadoop安装
点赞
收藏

51CTO技术栈公众号