2015-05-09 133 views
1

我是新来的火花。我已经下载了针对hadoop 2.6版的预编译的spark版本1.3.1。我解压缩并导航到该文件夹​​并在以下命令中键入: ./bin/spark-shell 为此,我收到一条错误消息,其中显示spark-shell命令未找到。我做了使用Git的bash的我得到一个错误说窗口相同尝试运行Spark时出错

火花提交:第26行tput的命令没有发现

有别的东西,我需要尝试运行火花之前做?

+0

的 '命令未找到' 错误可能,如果你碰巧在Linux尝试在64位机器上运行32位可执行文件。运行'file。/ bin/spark-shell'和'uname -a'来查看可执行文件是否与你的机器兼容。 – emjay

+0

文件命令只是将其显示为c源代码而不是任何可执行文件 –

回答

2

在Windows上安装Maven(MVN),在常规cmd提示符下,使用spark-shell.cmd
在Linux上,在终端,cd你的星火根(你应该命名为spark-1.3.1-bin-hadoop2.6如果保持原来的名称),然后执行:

./bin/spark-shell 

你最近有没有改变你的.bash_profile?任何其他命令的问题?只需输入例如tar在你的shell中。所有好还是不好?

编辑(下面的第一个注释后):

以下是如何启动REPL上的Linux(只设置错误日志记录级别)。
Spark仅仅是一个符号链接到星火版本我想用,忽视这一点,把它作为你的星火主目录:

enter image description here

而这里的的Windowsenter image description here

你几乎不能做任何错误,它是多么简单:)

+0

在spark-1.3.1-bin-hadoop2.6中键入spark-shell.cmd时出现错误,提示'spark-shell.cmd'未被识别为内部或外部命令。如果我导航到spark-1.3.1-bin-hadoop2.6/bin并输入相同的东西,我得到一个pathnot发现错误。 –

+0

看看图像。 –

+0

如何回答我问的这些问题? –

-1

提取并导航到该文件夹​​后,您需要通过这个命令来构建Apache的星火:

mvn -DskipTests clean package 

,你需要通过

sudo apt-get install maven 
+0

他说这是一个预先构建的版本。 –

1

在linux中

  1. 安装斯卡拉
  2. 安装混帐
  3. 构建星火

构建星火:

$ wget http://archive.apache.org/dist/spark/spark-1.5.0/spark-1.5.0-bin-hadoop2.6.tgz 
$ tar xvf spark-1.5.0-bin-hadoop2.6.tgz 
$ sudo mv spark-1.5.0-bin-hadoop2.6 /usr/local/spark 
$ /usr/local/spark/bin/spark-shell