2017-02-09 57 views
2

我正在尝试构建一个具有四个节点的hadoop集群。是否需要在/ usr/local中安装hadoop?

四款机器都是从我学校的实验室,我发现他们的在/ usr /本地来自同一公共磁盘,这意味着他们在/ usr /本地是相同的安装。

问题是,我无法在从属设备上启动数据节点,因为hadoop文件总是相同的(如tmp/dfs/data)。

我打算配置和insatll hadoop在其他目录像/ opt。

的问题是,我发现几乎所有的安装教程要求我们在在/ usr /本地安装它,所以我不知道会不会有什么不良后果,如果我在其他地方安装Hadoop的像/选择

顺便说一句,我使用的Ubuntu 16.04

+0

也许又见http://stackoverflow.com/questions/9168432/unix-standard-directory-to-put-custom-executables-or-scripts – tripleee

+2

为了记录在案:这个网站实际上是约**编程**问题。很高兴你很快得到答案;但在一定程度上,你的问题是偏离主题的! – GhostCat

回答

4

只要HADOOP_HOME指向您提取Hadoop的二进制文件,那么它不应该的问题。例如,

例如,也可以在~/.bashrc中更新PATH

export HADOOP_HOME=/path/to/hadoop_x.yy 
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin 

仅供参考,我的/etc/hadoop里面的一些配置文件。

(注:Apache Ambari,使安装更容易)

0

这是不是在所有必要/usr/local下安装Hadoop的。安装单节点hadoop集群时通常会使用该位置(尽管它不是必需的)。只要你有.bashrc中指定的以下变量,任何位置都可以工作。

export HADOOP_HOME=<path-to-hadoop-install-dir> 
export PATH=$PATH:$HADOOP_HOME/bin 
export PATH=$PATH:$HADOOP_HOME/sbin 
相关问题