2015-02-10 59 views
-2

我创建了一个由8台机器组成的Spark群集。每台机器都有104 GB的RAM和16个虚拟内核。Apache Spark没有看到我的机器的所有内存

我似乎Spark每台机器只能看到42 GB的RAM,这是不正确的。你知道为什么Spark没有看到机器的所有内存?

enter image description here

PS:我使用Apache 1.2星火

+0

为什么我有3个downvotes?我错过了什么吗? – poiuytrez 2015-02-11 08:21:12

回答

0

星火使得在猜测可用内存没有尝试。执行程序使用尽可能多的内存,与您在spark.executor.memory设置中指定的内存一样多。看起来它设置为42 GB。

+0

spark.executor.memory被设置为83971m。 – poiuytrez 2015-02-11 17:52:53

相关问题