如何使用 EMR 让从节点为 Spark 集群工作?

How to make the slave nodes work for Spark cluster using EMR?

我尝试 运行 使用 EMR 在我的 Spark 集群上创建一个作业。集群一主两从,每个节点(主节点或从节点)有32个核心。作业是通过控制台使用"Add Step",配置如下:

sparkConf.setMaster("local[24]").set("spark.executor.memory", "40g") .set("spark.driver.memory", "40g");

然后我注意到两个slave没有工作(CPUusage接近0),只有master在努力工作。我该如何解决这个问题并让从站工作?

谢谢!

当您指定 'local' 主控时,这意味着主控是本地的 - 它不分布在节点上。

您应该遵循文档: http://spark.apache.org/docs/1.2.0/spark-standalone.html

我最近才开始在 EMR 上使用 Spark,但我发现 these examples 对于启动/配置集群和提交 Spark 作业非常有帮助。