上运行星火的工作,我的顶端有一个简单的Hadoop集群,其中星火运行(即星火使用纱作为集群管理器)。无法YARN集群
我使用Hadoop 2.7;斯卡拉2.112.1;火花2.1.0和JDK 8
现在,当我提交作业,失败的话,下面的消息:
17/04/06 23:57:55 INFO yarn.Client: Application report for application_1491534363989_0004 (state: ACCEPTED)
17/04/06 23:57:56 INFO yarn.Client: Application report for application_1491534363989_0004 (state: FAILED)
17/04/06 23:57:56 INFO yarn.Client:
client token: N/A
diagnostics: Application application_1491534363989_0004 failed 2 times due to AM Container for appattempt_1491534363989_0004_000002 exited with exitCode: 15
For more detailed output, check application tracking page:http://rm100.hadoop.cluster:8088/cluster/app/application_1491534363989_0004Then, click on links to logs of each attempt.
Diagnostics: Exception from container-launch.
Container id: container_1491534363989_0004_02_000001
Exit code: 15
有没有与JDK 8的任何问题?
更新
当我运行使用JDK 7相同的程序,它工作正常。所以我的问题是:Spark,scala,hadoop和JDK 8有什么问题?
不,我们运行早期版本的Hadoop和Spark在JDK 8,它工作正常。 – jamborta
可能是你遇到了一些问题,斯卡拉2.11,因为它的Java 8支持是实验 - http://www.scala-lang.org/news/2.11.1#required-java-version – jamborta
我相信问题是Hadoop从Java支持页面2.7及更高版本仅支持JDK 7。 – CuriousMind