Spark 作为 Linux 服务
Spark as a Linux Service
我的任务是将 spark 部署到生产环境中。我通常使用 Ansible 管理一切。我已经打包了 zookeeper 和 kafka,可以将它们部署为 linux 服务,但是 Spark 我遇到了问题。
它似乎没有设置为 started/stopped 作为服务(指的是 init.d 服务)。是否有人 运行 在群集模式下启动,您是否通过 init.d 脚本将其设置为 start/stop?或者关于如何设置它的普遍共识是什么?
这是我之前尝试过的:
spark init.d 服务:
#!/bin/bash
SPARK_BASE_DIR=/opt/spark-2.0.0-bin-hadoop2.7
SPARK_SBIN=$SPARK_BASE_DIR/sbin
PID=''
if [ -f $SPARK_BASE_DIR/conf/spark-env.sh ];then
source $SPARK_BASE_DIR/conf/spark-env.sh
else
echo "$SPARK_BASE_DIR/conf/spark-env.sh does not exist. Can't run script."
exit 1
fi
check_status() {
PID=$(ps ax | grep 'org.apache.spark.deploy.master.Master' | grep java | grep -v grep | awk '{print }')
if [ -n "$PID" ]
then
return 1
else
return 0
fi
}
start() {
check_status
if [ "$?" -ne 0 ]
then
echo "Master already running"
exit 1
fi
echo -n "Starting master and workers ... "
su user -c "$SPARK_SBIN/start-all.sh" spark &>/dev/null
sleep 5
check_status
if [ "$?" -eq 0 ]
then
echo "FAILURE"
exit 1
fi
echo "SUCCESS"
exit 0
}
stop() {
check_status
if [ "$?" -eq 0 ]
then
echo "No master running ..."
return 1
else
echo "Stopping master and workers ..."
su user -c "$SPARK_SBIN/stop-all.sh" spark &>/dev/null
sleep 4
echo "done"
return 0
fi
}
status() {
check_status
if [ "$?" -eq 0 ]
then
echo "No master running"
exit 1
else
echo -n "master running: "
echo $PID
exit 0
fi
}
case "" in
start)
start
;;
stop)
stop
;;
restart)
stop
start
;;
status)
status
;;
*)
echo "Usage: [=11=] {start|stop|restart|status}"
exit 1
esac
exit 0
我是运行从master节点启动所有集群节点的服务
关于我的环境的一些信息:
- Ubuntu 16.04
- spark 2.0.0 与 hadoop 2.7
我解决了。这个问题来自我的角色。我没有设置日志文件夹所有者的组。现在可以正常使用了。
我的任务是将 spark 部署到生产环境中。我通常使用 Ansible 管理一切。我已经打包了 zookeeper 和 kafka,可以将它们部署为 linux 服务,但是 Spark 我遇到了问题。
它似乎没有设置为 started/stopped 作为服务(指的是 init.d 服务)。是否有人 运行 在群集模式下启动,您是否通过 init.d 脚本将其设置为 start/stop?或者关于如何设置它的普遍共识是什么?
这是我之前尝试过的:
spark init.d 服务:
#!/bin/bash
SPARK_BASE_DIR=/opt/spark-2.0.0-bin-hadoop2.7
SPARK_SBIN=$SPARK_BASE_DIR/sbin
PID=''
if [ -f $SPARK_BASE_DIR/conf/spark-env.sh ];then
source $SPARK_BASE_DIR/conf/spark-env.sh
else
echo "$SPARK_BASE_DIR/conf/spark-env.sh does not exist. Can't run script."
exit 1
fi
check_status() {
PID=$(ps ax | grep 'org.apache.spark.deploy.master.Master' | grep java | grep -v grep | awk '{print }')
if [ -n "$PID" ]
then
return 1
else
return 0
fi
}
start() {
check_status
if [ "$?" -ne 0 ]
then
echo "Master already running"
exit 1
fi
echo -n "Starting master and workers ... "
su user -c "$SPARK_SBIN/start-all.sh" spark &>/dev/null
sleep 5
check_status
if [ "$?" -eq 0 ]
then
echo "FAILURE"
exit 1
fi
echo "SUCCESS"
exit 0
}
stop() {
check_status
if [ "$?" -eq 0 ]
then
echo "No master running ..."
return 1
else
echo "Stopping master and workers ..."
su user -c "$SPARK_SBIN/stop-all.sh" spark &>/dev/null
sleep 4
echo "done"
return 0
fi
}
status() {
check_status
if [ "$?" -eq 0 ]
then
echo "No master running"
exit 1
else
echo -n "master running: "
echo $PID
exit 0
fi
}
case "" in
start)
start
;;
stop)
stop
;;
restart)
stop
start
;;
status)
status
;;
*)
echo "Usage: [=11=] {start|stop|restart|status}"
exit 1
esac
exit 0
我是运行从master节点启动所有集群节点的服务
关于我的环境的一些信息:
- Ubuntu 16.04
- spark 2.0.0 与 hadoop 2.7
我解决了。这个问题来自我的角色。我没有设置日志文件夹所有者的组。现在可以正常使用了。