2016-05-15 72 views
-1

我已经在我的机器上成功安装并运行过apache spark。今天,我又回到了它,并尝试使用运行它:斌/火花壳火花目录(bin文件存在于这个目录),但我得到:无法启动的火花

bin is not recognized as an internal or external command, 
operable program or batch file. 

IT方面在Windows 10 CMD shell中运行,如果这有帮助。什么会造成这种情况?

回答

0

JAVA_HOME过时了......我更新了java而没有更新路径!这是问题所在。

2

我相信我们需要更多的信息,能够回答你的问题。

使用'./'指定一个路径,从您的工作目录的根目录开始。 (Bash或PowerShell)

  1. 你在cmd shell/powershell/bash shell中运行这个吗?

  2. 试图执行命令时,你在什么目录下工作?

  3. 在当前目录中是否有bin文件夹? (LS命令或dir命令)

+0

是的,有一个bin文件夹。我在spark目录中,我正在使用cmd shell! – Kratos

+0

您是否尝试从完整路径执行命令?恩。 C:\ BIN \火花壳呢?我很确定./不是正确的语法,对于cmd-shell。请尝试bin/spark-shell。 –

+0

我也试过这个,但是:系统找不到指定的路径..我非常肯定我给出了正确的路径,并且有一个包含spark-shell文件的bin文件夹。 (试用spark-shell.cmd) – Kratos

0

检查安装的Java版本和环境变量JAVA_HOME指向的位置。

在我的情况JAVA_HOME = C:\ Program Files文件\的Java \ jdk1.7.0_79(这是旧版本)

这个问题的原因是,我安装JDK的新版本并删除以前的安装但是JAVA_HOME指向了缺少的旧环境。