Hadoop 通过 Hadoop 配置文件分配 Master 和 Worker 节点的工作流程是什么?

What is the workflow that Hadoop uses to assign Master and Worker nodes through the Hadoop Configuration files?

我对如何在 Spark 的集群模式下将主节点和工作节点分配给网络上各自连接的机器 (VM) 感到有点困惑。

我的问题是 当我启动 Spark 作业(使用 Spark-submit)时,负责分配的流程工作流是什么一个主节点和一个工作节点。

谢谢!

Driver 和 Executors 请求 yarn 中的容器启动并工作。 Yarn 会为您处理分配,因此您无需担心主(驱动程序)/从(执行程序)的分配位置。