我已经在Ubuntu上安装了Spark 2.1.1,无论我做什么,它似乎都不认同java路径。当我运行“spark-submit --version”或“spark-shell”时,出现以下错误:spark-class:line 71 ...没有这样的文件或目录
/usr/local/spark/bin/spark-class:第71行:/ usr/lib/jvm/java-8-openjdk-amd64/jre/bin // bin/java:没有这样的文件或目录
现在显然“/ bin // bin/java”有问题,但我不确定在哪里改变配置。火花级文件有以下几行:
if [ -n "${JAVA_HOME}" ]; then
RUNNER="${JAVA_HOME}/bin/java"
我最初使用版本星火意味着Hadoop的2.4
,当我把它改为“亚军=” $ {JAVA_HOME}”它要么给我错误“[路径]是一个目录”或“[路径]不是目录”。这也是在尝试/ etc /环境中的多个路径排列之后
我现在在/ etc/environment中有:
JAVA_HOME =“/ usr/lib/jvm/java-8 -openjdk-amd64/jre/bin /”
这是当前Java设置,我有:
[R OOT @ Ubuntu的:〜#更新替代--config java的 有链路组的Java只有一个选择(提供在/ usr/bin中/ JAVA) :/ usr/lib中/ JVM/JAVA-8的OpenJDK,AMD64/JRE /斌/ java的
.bashrc中有以下几点:
export SPARK_HOME="/usr/local/spark"
export PATH="$PATH:$SPARK_HOME/bin"
能
人提醒:1)我需要什么文件来改变2)我需要如何改变它们?提前致谢。
火花类文件中的链接,以防万一:
http://vaughn-s.net/hadoop/spark-class
工作 - 谢谢! –