我在Spark和Ambari的集群安装上比较新。最近,我得到了一个安装Spark 2.1.0的任务,它在预装了Ambari Spark 1.6.2的HDFS & YARN 2.7.3的集群上。使用Ambari安装spark 2.1.0 2.4.2.0
我的任务是安装Spark 2.1.0,因为它是与RSpark更好的兼容性的最新版本。我在网上搜索了几天,仅在AWS或Spark 2.1.0上找到了一些安装指南。
如下: http://data-flair.training/blogs/install-deploy-run-spark-2-x-multi-node-cluster-step-by-step-guide/ 和http://spark.apache.org/docs/latest/building-spark.html。
但他们都没有提到不同版本的Spark的干扰。由于我需要保持这个群集运行,我想知道群集的一些潜在威胁。
有没有一些正确的方法来做这个安装?非常感谢!
您正在使用哪种ambari堆栈以及哪个版本? HDP,IOP,PHD等?你想让Spark2由Ambari管理吗? – cjackson
是的,我想让Ambari管理Spark2。实际上,我对Ambari来说是新手,不知道在哪里可以找到HDP,IOP,PHD的所有版本,你能告诉我一个方法吗?非常感谢! – windsound
登录ambari,点击右上角的管理按钮,选择堆栈和版本,点击版本标签。它会告诉你什么堆栈和你当前使用的版本。 – cjackson