在 Apache Spark 2.3.1 中,我们可以 "Not" 在哪种部署模式下向集群添加节点

In which deployment mode can we "Not" add nodes to a cluster in Apache Spark 2.3.1

我们可以在哪种部署模式下将Nodes/workers添加到Apache Spark 2.3.1

中的集群

1.Spark 独立 2.Mesos 3.Kubernetes 4.Yarn 5.Local模式

我已经在我的机器上安装了 Apache Spark 2.3.1 并且运行它处于本地模式

在本地模式下,我们可以将 Nodes/workers 添加到 Apache Spark 吗?

当 master 是本地时,您的程序将 运行 在作为您的边缘节点的单台机器上。 要在分布式环境中 运行 它,即在集群上,您需要 select 掌握为 "Yarn"。

当部署模式为 "client"(默认)时,您的边缘节点将成为主节点(其中驱动程序将 运行)。 当部署模式为 "cluster" 时,集群中任何一个健康的节点都会成为主节点