内存配置对公平调度器真的重要吗?
Does memory configuration really matter with fair scheduler?
我们有一个配置了公平调度程序的 hadoop 集群。我们过去常常看到这样的场景,即集群中没有多少作业到 运行,运行ning 作业试图占用尽可能多的可用内存和内核。
对于公平调度程序,执行程序内存和核心对于 spark 作业真的很重要吗?还是取决于公平调度程序来决定给多少?
Fair Scheduler 的政策是分配给它的第一个作业将拥有提供的所有资源。
当我们运行第二份工作时,所有资源将被分成(可用资源)/(工作数量)
现在主要关注的是,您为 运行 作业分配了多少容器内存。如果它等于可用资源的总数,那么你的工作真正使用了所有资源。
我们有一个配置了公平调度程序的 hadoop 集群。我们过去常常看到这样的场景,即集群中没有多少作业到 运行,运行ning 作业试图占用尽可能多的可用内存和内核。
对于公平调度程序,执行程序内存和核心对于 spark 作业真的很重要吗?还是取决于公平调度程序来决定给多少?
Fair Scheduler 的政策是分配给它的第一个作业将拥有提供的所有资源。
当我们运行第二份工作时,所有资源将被分成(可用资源)/(工作数量)
现在主要关注的是,您为 运行 作业分配了多少容器内存。如果它等于可用资源的总数,那么你的工作真正使用了所有资源。