2013-10-04 20 views
2

我试图用this教程没有的TaskTracker停下来,没有NameNode会停止本地主机:,没有数据节点停止本地主机

我已经改变了所有的conf文件安装在Ubuntu Hadoop和千方百计解决方案在互联网上提供。 我不当我运行start-all.sh得到任何错误,但是当我使用JPS检查过程中,我得到这样的: - >

3132 Jps 
2742 SecondaryNameNode 
2830 JobTracker 

当我使用stop-all.sh,我得到: - >

stopping jobtracker 
localhost: no tasktracker to stop 
no namenode to stop 
localhost: no datanode to stop 
localhost: stopping secondarynamenode 

这是我的JobTracker日志请帮助我:

Problem connecting to HDFS Namenode... re-trying 
java.net.ConnectException: Call to localhost/127.0.0.1:54310 failed on connection exception: java.net.ConnectException: Connection refused 
    at org.apache.hadoop.ipc.Client.wrapException(Client.java:1142) 
    at org.apache.hadoop.ipc.Client.call(Client.java:1118) 
    at org.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:229) 
    at com.sun.proxy.$Proxy7.getProtocolVersion(Unknown Source) 
    at sun.reflect.GeneratedMethodAccessor2.invoke(Unknown Source) 
    at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) 
    at java.lang.reflect.Method.invoke(Method.java:606) 
    at org.apache.hadoop.io.retry.RetryInvocationHandler.invokeMethod(RetryInvocationHandler.java:85) 
+1

你能告诉我你的日志文件吗? – Tariq

+0

您是否正确配置SSH设置?根据教程? –

+0

嗨,我得到完全相同的错误。你解决了这个问题吗?你能告诉我解决方案吗? –

回答

0

检查你的核心site.xml文件,看看是否有更新的路径hdfstmp文件夹中。如果您从互联网复制并粘贴配置,但未能配置路径,则会出现此错误。尝试这样的:

<property> 
    <name>hadoop.tmp.dir</name> 
    <value>/home/user/hdfstmp</value> 
</property> 

这里的hdfstmp是默认文件系统的文件夹的名称。

一旦你正确设置在核心site.xml文件的临时目录,我建议

  • 检查您的所有配置文件再次
  • 运行bin/stop-all.sh
  • 运行hadoop/bin namenode -format
  • 运行bin/start-all.sh
0

您必须是t的所有者他的目录包含namenode和datanode。

0

请检查为fs.defaultFS属性配置的端口。在我的情况下,我给了已经在使用的港口。因此namenode没有开始。更改端口之后,我能够启动名称节点

0

1)使用“杀-9的ProcessID”
2)start-all.sh
3)stop-al.sh以验证是否停止节点是按预期工作。