在“spark.jars”中指定jar并在独立spark上运行时,没有spark-submit。罐子装在哪里?火花从哪里加载它的罐子?
我有一个Spring应用程序,对在Docker中运行的Spark独立执行一些Spark操作。
我的应用程序依赖于各种库,例如MySQL JDBC,ElasticSearch等,因此无法在没有它们的集群上运行。
我组装了我的jar及其所有的依赖关系,并将它移到Docker中的/ jars目录中。但仍然没有运气。
13:28:42.577 [Executor task launch worker-0] INFO org.apache.spark.executor.Executor - Fetching spark://192.168.99.1:58290/jars/xdf-1.0.jar with timestamp 1499088505128
13:28:42.614 [dispatcher-event-loop-0] INFO org.apache.spark.executor.Executor - Executor is trying to kill task 0.3 in stage 1.0 (TID 7)
13:28:42.698 [Executor task launch worker-0] DEBUG org.apache.spark.network.client.TransportClient - Sending stream request for /jars/xdf-1.0.jar to /192.168.99.1:58290
13:28:42.741 [shuffle-client-7-1] DEBUG org.apache.spark.rpc.netty.NettyRpcEnv - Error downloading stream /jars/xdf-1.0.jar.
java.lang.RuntimeException: Stream '/jars/xdf-1.0.jar' was not found.
现在我注意到它正在寻找驱动程序主机上的jar,但我不明白它是从哪里试图部署它。 任何人都有一个 想法,它正在寻找那个罐子。
我一直在寻找明白的地方放置我的罐子:司机节点或主/从节点上。所以这不能回答我的问题。 – aclokay