运行 Mesos 集群上的多个 Spark 作业

running multiple Spark jobs on a Mesos cluster

我想在我的 Mesos 集群上 运行 多个 spark 作业,并让所有 spark 作业共享相同的 spark 框架。这可能吗? 我已经尝试 运行 连接 MesosClusterDispatcher 并将 spark 作业连接到调度程序,但是每个 spark 作业都会启动自己的 "Spark Framework"(我已经尝试 运行 连接客户端模式和集群-模式)。 这是预期的行为吗? 是否可以在多个火花作业之间共享相同的火花框架?

这是正常现象,也是预期的行为。

据我所知,在 Mesos 中,SparkDispatcher 负责为您的 Spark Driver 分配资源,它将充当一个框架。一旦分配了 Spark 驱动程序,它就会负责与 Mesos 对话并接受分配任务执行器的提议。