2014-03-04 46 views
0

我以前成功启动datanode,但是当我今天尝试时,它显示以下信息。这听起来像我没有mkdir/home/hadoop/appdata/hadoopdata目录,但我确认该目录已存在于我的电脑中。所以有什么问题?为什么我无法正常启动datanode?例如:我试图删除/ home/hadoop/appdata /和mkdir一个新的,但它仍然不起作用。无法正常启动hadoop datanode

我也删除/家庭/ Hadoop的/ tmp目录/ hadoop_tmp和的mkdir一个新的,它仍然无法正常工作......

2014-03-04 09:30:30,106 WARN org.apache.hadoop.metrics2.impl.MetricsSystemImpl: Source name ugi already exists! 

2014-03-04 09:30:30,349 INFO org.apache.hadoop.hdfs.server.common.Storage: Cannot access storage directory /home/hadoop/appdata/hadoopdata 

2014-03-04 09:30:30,350 INFO org.apache.hadoop.hdfs.server.common.Storage: Storage directory /home/hadoop/appdata/hadoopdata does not exist 

2014-03-04 09:30:30,453 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: 

java.io.IOException: All specified directories are not accessible or do not exist. 

    at org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:139) 
    at org.apache.hadoop.hdfs.server.datanode.DataNode.startDataNode(DataNode.java:414) 
    at org.apache.hadoop.hdfs.server.datanode.DataNode.<init>(DataNode.java:321) 
    at org.apache.hadoop.hdfs.server.datanode.DataNode.makeInstance(DataNode.java:1712) 
    at org.apache.hadoop.hdfs.server.datanode.DataNode.instantiateDataNode(DataNode.java:1651) 
    at org.apache.hadoop.hdfs.server.datanode.DataNode.createDataNode(DataNode.java:1669) 
    at org.apache.hadoop.hdfs.server.datanode.DataNode.secureMain(DataNode.java:1795) 
+0

启动VM进程的用户是否在该目录中拥有足够的权限? – mttdbrd

回答

0
  1. 停止所有的Hadoop服务

  2. 删除DFS/namenode的

    来自奴隶和主人
  3. 删除DFS /数据节点
  4. 检查的Hadoop文件夹的premission:

    须藤搭配chmod -R 755在/ usr /本地/ Hadoop的

  5. 重新启动的Hadoop
  6. 检查/验证文件夹的权限。

    须藤搭配chmod -R 755 /家/的Hadoop /应用程序数据

  7. 如果您仍然有问题检查日志文件
0

尝试甲酸盐你的NameNode **

use hadoop namenode -format 
or 
hdfs namenode -format 

** 你会得到清晰的图像没有按预期配置。