-1
我试图在我的Cloudera VM 5.10中安装Scala IDE 4.7,它分别预先配置了JDK 1.7,Spark 1.6版本。 因此,我通过卸载Cloudera提供的位于/usr/java/jdk1.7的默认JDK,在/ opt/location中安装了jdk 1.8。我在.bash_profile中添加了Java环境变量。我成功地安装了Scala IDE。 但现在Hadoop的所有生态系统都指向我已卸载的旧JDK 1.7,并在运行时引发错误。任何人都可以让我知道我可以在哪里配置Hadoop生态系统的Java变量以使用新的1.8 JDK? Here is the screen shot for reference为Hadoop生态系统重新配置Java环境变量