在 Apache Spark 2.3.1 中,我们可以 "Not" 在哪种部署模式下向集群添加节点
In which deployment mode can we "Not" add nodes to a cluster in Apache Spark 2.3.1
我们可以在哪种部署模式下不将Nodes/workers添加到Apache Spark 2.3.1
中的集群
1.Spark 独立
2.Mesos
3.Kubernetes
4.Yarn
5.Local模式
我已经在我的机器上安装了 Apache Spark 2.3.1 并且运行它处于本地模式
在本地模式下,我们可以将 Nodes/workers 添加到 Apache Spark 吗?
当 master 是本地时,您的程序将 运行 在作为您的边缘节点的单台机器上。
要在分布式环境中 运行 它,即在集群上,您需要 select 掌握为 "Yarn"。
当部署模式为 "client"(默认)时,您的边缘节点将成为主节点(其中驱动程序将 运行)。
当部署模式为 "cluster" 时,集群中任何一个健康的节点都会成为主节点
我们可以在哪种部署模式下不将Nodes/workers添加到Apache Spark 2.3.1
中的集群1.Spark 独立 2.Mesos 3.Kubernetes 4.Yarn 5.Local模式
我已经在我的机器上安装了 Apache Spark 2.3.1 并且运行它处于本地模式
在本地模式下,我们可以将 Nodes/workers 添加到 Apache Spark 吗?
当 master 是本地时,您的程序将 运行 在作为您的边缘节点的单台机器上。 要在分布式环境中 运行 它,即在集群上,您需要 select 掌握为 "Yarn"。
当部署模式为 "client"(默认)时,您的边缘节点将成为主节点(其中驱动程序将 运行)。 当部署模式为 "cluster" 时,集群中任何一个健康的节点都会成为主节点