Apache Spark 2.1.0 - 基本设置:工作节点未与主节点连接
Apache Spark 2.1.0 - Basic Setup: worker node not connecting with master node
我正在尝试连接两个 VM 运行 Apache Spark;一个主人和一个工人。我正在使用 VirtualBox 和一个 host-only 网络适配器。 VM 能够 ping
彼此但是当我启动 worker 时它没有出现在 master 的网站中 UI.
我正在使用静态 IP,主服务器 10.10.10.2
和工人 10.10.10.3
我的 spark-env.sh
文件配置为包括:
SPARK_MASTER_IP=10.10.10.2
我首先启动主节点:
./start-master.sh
starting org.apache.spark.deploy.master.Master, logging to /usr/lib/spark/logs/spark-masternode-org.apache.spark.deploy.master.Master-1-masternode.out
那么工人:
./start-slave.sh spark://10.10.10.2:7077
starting org.apache.spark.deploy.worker.Worker, logging to /usr/lib/spark/logs/spark-modelnode1-org.apache.spark.deploy.worker.Worker-1-modelnode1.out
主节点G的输出结果UI:
如果我 nmap 10.10.10.2
来自工人:
Nmap scan report for 10.10.10.2
Host is up (0.00035s latency).
Not shown: 998 closed ports
PORT STATE SERVICE
22/tcp open ssh
8080/tcp open http-proxy
我不确定这是否相关,但它在 7077
中没有显示任何内容
非常感谢任何帮助!
SPARK_MASTER_IP
已弃用,不再用于 Spark 2.x。您可以使用:
SPARK_MASTER_HOST
环境变量
-h
/ --host
sbin/start-master.sh
的选项。
我正在尝试连接两个 VM 运行 Apache Spark;一个主人和一个工人。我正在使用 VirtualBox 和一个 host-only 网络适配器。 VM 能够 ping
彼此但是当我启动 worker 时它没有出现在 master 的网站中 UI.
我正在使用静态 IP,主服务器 10.10.10.2
和工人 10.10.10.3
我的 spark-env.sh
文件配置为包括:
SPARK_MASTER_IP=10.10.10.2
我首先启动主节点:
./start-master.sh
starting org.apache.spark.deploy.master.Master, logging to /usr/lib/spark/logs/spark-masternode-org.apache.spark.deploy.master.Master-1-masternode.out
那么工人:
./start-slave.sh spark://10.10.10.2:7077
starting org.apache.spark.deploy.worker.Worker, logging to /usr/lib/spark/logs/spark-modelnode1-org.apache.spark.deploy.worker.Worker-1-modelnode1.out
主节点G的输出结果UI:
如果我 nmap 10.10.10.2
来自工人:
Nmap scan report for 10.10.10.2
Host is up (0.00035s latency).
Not shown: 998 closed ports
PORT STATE SERVICE
22/tcp open ssh
8080/tcp open http-proxy
我不确定这是否相关,但它在 7077
非常感谢任何帮助!
SPARK_MASTER_IP
已弃用,不再用于 Spark 2.x。您可以使用:
SPARK_MASTER_HOST
环境变量-h
/--host
sbin/start-master.sh
的选项。