运行 Mesos 集群上的多个 Spark 作业
running multiple Spark jobs on a Mesos cluster
我想在我的 Mesos 集群上 运行 多个 spark 作业,并让所有 spark 作业共享相同的 spark 框架。这可能吗?
我已经尝试 运行 连接 MesosClusterDispatcher 并将 spark 作业连接到调度程序,但是每个 spark 作业都会启动自己的 "Spark Framework"(我已经尝试 运行 连接客户端模式和集群-模式)。
这是预期的行为吗?
是否可以在多个火花作业之间共享相同的火花框架?
这是正常现象,也是预期的行为。
据我所知,在 Mesos 中,SparkDispatcher 负责为您的 Spark Driver 分配资源,它将充当一个框架。一旦分配了 Spark 驱动程序,它就会负责与 Mesos 对话并接受分配任务执行器的提议。
我想在我的 Mesos 集群上 运行 多个 spark 作业,并让所有 spark 作业共享相同的 spark 框架。这可能吗? 我已经尝试 运行 连接 MesosClusterDispatcher 并将 spark 作业连接到调度程序,但是每个 spark 作业都会启动自己的 "Spark Framework"(我已经尝试 运行 连接客户端模式和集群-模式)。 这是预期的行为吗? 是否可以在多个火花作业之间共享相同的火花框架?
这是正常现象,也是预期的行为。
据我所知,在 Mesos 中,SparkDispatcher 负责为您的 Spark Driver 分配资源,它将充当一个框架。一旦分配了 Spark 驱动程序,它就会负责与 Mesos 对话并接受分配任务执行器的提议。