Apache Spark 看不到我机器的所有内存

Apache Spark does not see all the ram of my machines

我创建了一个 8 台机器的 Spark 集群。每台机器有 104 GB 的 RAM 和 16 个虚拟核心。

我似乎认为 Spark 每台机器只能看到 42 GB 的 RAM,这是不正确的。你知道为什么 Spark 看不到机器的所有 RAM 吗?

PS : 我正在使用 Apache Spark 1.2

Spark 不会尝试猜测可用内存。执行程序使用的内存与您在 spark.executor.memory 设置中指定的一样多。似乎已设置为 42 GB。

这似乎是一个普遍的误解。显示的是 spark.storage.memoryFraction :