2016-11-10 98 views
-1

在Hadoop的HDFS联邦添加新的NameNode到现有HDFS集群的最新步骤是:
==>通过运行刷新的Datanode到拾取新添加的Namenode以下添加新的Namenode到现有HDFS集群

[hdfs]$ $HADOOP_PREFIX/bin/hdfs dfsadmin -refreshNameNodes <datanode_host_name>:<datanode_rpc_port> 

女巫是执行命令流动最好的地方:对集群中的所有的Datanode命令的NameNode或DataNode会?
如果我有1000个Datanodes,运行1OOO次它是合乎逻辑的吗?

+0

这个问题是否解决? – mrsrinivas

回答

0

在namenode中运行一次此命令。

$HADOOP_PREFIX/sbin/slaves.sh hdfs dfsadmin -refreshNameNodes <datanode_host_name>:<datanode_rpc_port> 

slaves.sh脚本将命令分发到其在slaves文件(通常放置在$HADOOP_CONF_DIR)中提到的所有从属主机

+0

为测试你可以在namenode主机中执行'slaves.sh jps'。它会列出从机中的所有进程。 – mrsrinivas

+0

找不到slaves.sh –

+0

它会被放在'$ HADOOP_INSTALL_DIR/sbin /' – mrsrinivas