2017-10-11 128 views
-1

我试图在我的Cloudera VM 5.10中安装Scala IDE 4.7,它分别预先配置了JDK 1.7,Spark 1.6版本。 因此,我通过卸载Cloudera提供的位于/usr/java/jdk1.7的默认JDK,在/ opt/location中安装了jdk 1.8。我在.bash_profile中添加了Java环境变量。我成功地安装了Scala IDE。 但现在Hadoop的所有生态系统都指向我已卸载的旧JDK 1.7,并在运行时引发错误。任何人都可以让我知道我可以在哪里配置Hadoop生态系统的Java变量以使用新的1.8 JDK? Here is the screen shot for reference为Hadoop生态系统重新配置Java环境变量

回答

0

第1步:停止所有hadoop服务器 第2步:编辑bigtop-utils文件。 我已经添加了jdk 1.8的位置。 创建一个变量BIGTOP_MAJOR = 8。 它选择jdk的优先顺序是6,7,8,并打开JDK。 第3步:保存并重新启动。