我设置了spark-yarn集群环境,spark(2.2.0)在Windows 7中;纱线簇是hadoop 2.7.3。只有一个spark-submit允许在spark-yarn集群环境中运行
我跑“火花壳”使用SparkSQL:
spark-shell --master yarn --deploy-mode client --conf spark.yarn.archive=hdfs://hadoop_273_namenode_ip:namenode_port/spark-archive.zip
一切都OK现在,但是当我开始另一种“火花壳”,该消息下方,似乎永远不会结束,输出到控制台:
17/10/17 17:33:53 INFO Client: Application report for application_1640_0003 (state: ACCEPTED)
在ResourceManager中的Web UI应用程序状态显示
[application status] ACCEPTED: waiting for AM container to be allocated, launched and register with RM
如果我关闭的F首先是“火花外壳”,第二个能够很好地工作。
看起来,它不允许在同一时间(在我的环境中)多个spark-shell(spark-submit)。
如何突破限制?
可能是第一份工作占用了所有可用资源。因此,第二份工作需要等待一些人在跑步之前获得自由。 – Shaido