2012-07-19 70 views
0

我已经成功安装了hadoop稳定版本。但在安装hadoop -2.0.0版本时感到困惑。apache Hadoop-2.0.0 aplha版本安装完全集群使用fedration

我想在两台机器上使用联合,在两个节点上安装hadoop-2.0.0-alpha。 rsi-1,rsi-2是主机名。

什么应该是以下实现联邦属性的值。这两台机器也都用于datanode。

fs.defaulFS dfs.federation.nameservices dfs.namenode.name.dir dfs.datanode.data.dir yarn.nodemanager.localizer.address yarn.resourcemanager.resource-tracker.address yarn.resourcemanager.scheduler.address纱.resourcemanager.address

还有一点,在hadoop的稳定版本中,我在安装目录的conf文件夹下有配置文件。

但在2.0.0-aplha版本中,有etc/hadoop目录,它没有mapred-site.xml,hadoop-env.sh。我是否需要将共享文件夹下的conf文件夹复制到hadoop-home目录中?或者我需要将这些文件从共享文件夹复制到etc/hadoop目录中?

问候,Rashmi

回答

0

可以在sbin目录文件夹中运行hadoop-setup-conf.sh。它指导您逐步进行配置。 请记住,当它要求你输入目录路径时,你应该使用完整链接 例如,当它要求conf目录时,你应该输入/home/user/Documents/hadoop-2.0.0/etc/hadoop 完成后,请记住检查etc/hadoop中的每个配置文件。 根据我的经验,我修改了hadoop-env.sh中的JAVA_HOME变量以及core-site.xml中的一些属性mapred-site.xml。 Regards