Spark 无法在 yarn 集群模式下 运行

Spark not able to run in yarn cluster mode

我正在尝试在 yarn 集群上执行我的代码

我使用的命令是

$SPARK_HOME/bin/spark-submit \
    --class "MyApp" \
    target/scala-2.10/my-application_2.10-1.0.jar \
    --master yarn-cluster \
    --num-executors 3 \
    --driver-memory 6g \
    --executor-memory 7g \
    <outputPath>

但是,我可以看到这个程序 运行 只在本地主机上。

它能够从 hdfs 读取文件。

我已经在独立模式下试过了,效果很好。

请指出哪里出错了。

我正在使用 Hadoop2.4 和 Spark 1.1.0。我能够在集群模式下得到它运行。

为了解决这个问题,我们简单地删除了所有从属节点的所有配置文件。早些时候我们 运行 处于独立模式,这导致在所有从站上复制配置。完成后,它 运行 就像在集群模式下预期的那样。虽然性能比不上单机模式

谢谢。