spark 关闭动态分配

spark turn off dynamic allocation

我想确保我的 spark 作业占用的内存不会超过我传递的内存,假设 400GB 是作业可以使用的最大值,根据我的理解关闭动态分配 (spark.dynamicAllocation.enabled = false ) 并传递 --num-executors --executor-memory --driver-memory 在 Cloudera 堆栈中完成工作?错了就改

我是否必须设置任何其他设置以确保 spark 作业不会超出限制。

在我的工作中找到了一个解决方案 Cloudera 集群有一个特殊的 yarn 参数,它不会让作业超过必须关闭或重置的特定限制。

https://community.cloudera.com/t5/Support-Questions/Yarn-memory-allocation-utilization/td-p/216290

https://docs.cloudera.com/HDPDocuments/HDP2/HDP-2.6.4/bk_command-line-installation/content/determine-hdp-memory-config.html