2010-07-27 68 views
0

我在Vmware上设置了3个相同的Linux(CentOS)服务器。基本上建立一个,并完成2个克隆。vmware上的hadoop,namenode没有找到奴隶

我编辑每个服务器主机名:server1,server2,server3并将它们添加到每个其他主机。使用ssh并启用了无密码的ssh。 server1#ssh server2 server2#

所以这个工作。

格式化namenode上的dfs。开始了dfs和map-reduce。当我运行
$ hadoop dfsadmin -report

它不显示任何奴隶。

发生了什么事?

有什么想法?

+0

日志中显示的内容很可能是:'/ var/log/hadoop'? – wlk 2010-07-27 17:29:11

回答

1

每当我遇到这个问题时,我都会在从节点上获取命名空间冲突。为了解决这个问题,我删除了每个节点的临时目录下的所有内容,然后重新设置了namenode的格式。在这一点上开始DFS通常会有诀窍。