无法在 Spark-1.2.0 上部署工作人员

Not able to deploy workers on Spark-1.2.0

我是 spark 的新手,在 hadoop 2.4.1 中使用 spark-1.2.0。我已经设置了主节点和四个从节点。但是我的两个节点没有启动。 我已经在 spark-1.2.0/conf/ 目录的 slaves 文件中定义了节点的 IP 地址。

但是当我尝试 运行 ./sbin/start-all.sh 时,错误如下:

failed to launch org.apache.spark.deploy.worker.Worker

could not find or load main class org.apache.spark.deploy.worker.Worker

这发生在两个节点上。其他两个工作正常。

我还在主机和从机中设置了 spark-env.sh。主人也有无密码的 ssh connectiviy 到奴隶。

我也试过 ./bin/spark-class org.apache.spark.deploy.worker.Worker spark://IP:PORT

它给出了与之前相同的错误。有人可以帮我弄这个吗。我哪里做错了?

所以我想出了解决办法。对于所有刚开始使用 spark 的人,请检查 lib 文件夹中的所有 jar 文件。我的奴隶 spark-assembly-1.2.0-hadoop2.4.0.jar 文件丢失了。

我也遇到了同样的问题。如果这是 localmode 集群设置,那么您可以 运行 代替:

./sbin/start-master.sh
./sbin/start-slave.sh spark://localhost:7077

然后运行:

MASTER=spark://localhost:7077 ./bin/pyspark

我能够在 shell 上执行我的工作。

请记住按照此处设置 conf/slaves 和 conf/spark-env.sh: http://pulasthisupun.blogspot.com/2013/11/how-to-set-up-apache-spark-cluster-in.html

同时将 localhost 更改为您的 hostname