我是新来的火花。我已经下载了针对hadoop 2.6版的预编译的spark版本1.3.1。我解压缩并导航到该文件夹并在以下命令中键入: ./bin/spark-shell 为此,我收到一条错误消息,其中显示spark-shell命令未找到。我做了使用Git的bash的我得到一个错误说窗口相同尝试运行Spark时出错
火花提交:第26行tput的命令没有发现
有别的东西,我需要尝试运行火花之前做?
我是新来的火花。我已经下载了针对hadoop 2.6版的预编译的spark版本1.3.1。我解压缩并导航到该文件夹并在以下命令中键入: ./bin/spark-shell 为此,我收到一条错误消息,其中显示spark-shell命令未找到。我做了使用Git的bash的我得到一个错误说窗口相同尝试运行Spark时出错
火花提交:第26行tput的命令没有发现
有别的东西,我需要尝试运行火花之前做?
在Windows上安装Maven(MVN),在常规cmd提示符下,使用spark-shell.cmd
。
在Linux上,在终端,cd
你的星火根(你应该命名为spark-1.3.1-bin-hadoop2.6
如果保持原来的名称),然后执行:
./bin/spark-shell
你最近有没有改变你的.bash_profile?任何其他命令的问题?只需输入例如tar
在你的shell中。所有好还是不好?
编辑(下面的第一个注释后):
以下是如何启动REPL上的Linux(只设置错误日志记录级别)。
Spark
仅仅是一个符号链接到星火版本我想用,忽视这一点,把它作为你的星火主目录:
而这里的的Windows:
你几乎不能做任何错误,它是多么简单:)
在spark-1.3.1-bin-hadoop2.6中键入spark-shell.cmd时出现错误,提示'spark-shell.cmd'未被识别为内部或外部命令。如果我导航到spark-1.3.1-bin-hadoop2.6/bin并输入相同的东西,我得到一个pathnot发现错误。 –
看看图像。 –
如何回答我问的这些问题? –
提取并导航到该文件夹后,您需要通过这个命令来构建Apache的星火:
mvn -DskipTests clean package
,你需要通过
sudo apt-get install maven
他说这是一个预先构建的版本。 –
在linux中
- 安装斯卡拉
- 安装混帐
- 构建星火
构建星火:
$ wget http://archive.apache.org/dist/spark/spark-1.5.0/spark-1.5.0-bin-hadoop2.6.tgz
$ tar xvf spark-1.5.0-bin-hadoop2.6.tgz
$ sudo mv spark-1.5.0-bin-hadoop2.6 /usr/local/spark
$ /usr/local/spark/bin/spark-shell
的 '命令未找到' 错误可能,如果你碰巧在Linux尝试在64位机器上运行32位可执行文件。运行'file。/ bin/spark-shell'和'uname -a'来查看可执行文件是否与你的机器兼容。 – emjay
文件命令只是将其显示为c源代码而不是任何可执行文件 –