2
我在Hadoop集群中使用HDFS 2.7.3和Spark2 2.0.0。当我启动Spark2 Thrift Server时,它成功启动,但自动从Hive用户开始运行一个作业,它似乎永远挂起。如果我手动杀死该作业,它将再次使用新的applicationId启动一项新作业。Spark应用程序继续运行,似乎挂起 - org.apache.spark.sql.hive.thriftserver.HiveThriftServer2
但是,如果我停止Spark2节俭服务器,它杀死的工作。你能帮我理解这个问题吗?
在此先感谢。