我正在尝试构建一个具有四个节点的hadoop集群。是否需要在/ usr/local中安装hadoop?
四款机器都是从我学校的实验室,我发现他们的在/ usr /本地来自同一公共磁盘,这意味着他们在/ usr /本地是相同的安装。
问题是,我无法在从属设备上启动数据节点,因为hadoop文件总是相同的(如tmp/dfs/data)。
我打算配置和insatll hadoop在其他目录像/ opt。
的问题是,我发现几乎所有的安装教程要求我们在在/ usr /本地安装它,所以我不知道会不会有什么不良后果,如果我在其他地方安装Hadoop的像/选择?
顺便说一句,我使用的Ubuntu 16.04
也许又见http://stackoverflow.com/questions/9168432/unix-standard-directory-to-put-custom-executables-or-scripts – tripleee
为了记录在案:这个网站实际上是约**编程**问题。很高兴你很快得到答案;但在一定程度上,你的问题是偏离主题的! – GhostCat