我正在尝试读取spark(〜100GB大小)中的大型hbase表。Yarn Spark HBase - ExecutorLostFailure YARN因超过内存限制而死亡的容器
星火版本:1.6
星火提交参数:
spark-submit --master yarn-client --num-executors 10 --executor-memory 4G
--executor-cores 4
--conf spark.yarn.executor.memoryOverhead=2048
Error: ExecutorLostFailure Reason: Container killed by YARN for exceeding limits. 4.5GB of 3GB physical memory used limits. Consider boosting spark.yarn.executor.memoryOverhead.
我已经尝试设置spark.yarn.executor.memoryOverhead
到100000
。仍然收到类似的错误。
我不明白为什么火花不会溢出到磁盘如果内存不足或是YARN导致问题在这里。