2017-06-01 97 views

回答

1

这是因为您使用Spark 1.x来编译代码,但在Spark 2.x群集中运行您的应用程序。您可以更新pom.xml以使用Spark群集的相同版本,并且可能还需要更新代码,因为2.x和1.x不兼容。

+1

您如何知道群集版本? –

+0

我已经使用此文件spark-2.1.1-bin-without-hadoop.tgz安装了Spark 2.1.1,然后,我已将Spark与Hadoop安装连接,并在/ usr/local/spark中设置spark-env.sh文件/ conf(我遵循这个:https://spark.apache.org/docs/latest/hadoop-provided.html)。 我可以在pom.xml中更改这部分吗? org.apache.spark 火花core_2.10 2.1.1它可能是工作? – majitux

+1

@ cricket_007打印'SparkContext.version' – zsxwing