如何在关闭终端时在服务器上 运行 我的 dse spark 应用程序 python ?
How can I run my dse spark app with python on a server while closing my terminal?
这是我的提交命令,我不知道如何在我的终端window关闭的情况下在后台运行它:
dse spark-submit --master spark://master:7077 --executor-memory 2G --total-executor-cores 2 --packages org.apache.spark:spark-streaming-kafka_2.10: 1.4.1 --jars /spark-streaming-kafka_2.10-1.4.1.jar /sparktest.py
你有几个选择,第一个是使用像 https://tmux.github.io/ or https://www.gnu.org/software/screen/ 这样的终端会话管理器,它会在你断开连接时让终端保持活动状态
另一个是在你的命令前使用http://linux.die.net/man/1/nohup
尝试在命令末尾添加“&”:
spark-submit --master spark://master:7077 --executor-memory 2G --total-executor-cores 2 --packages org.apache.spark:spark-streaming-kafka_2.10:1.4.1 --jars /spark-streaming-kafka_2.10-1.4.1.jar /sparktest.py &
这是我的提交命令,我不知道如何在我的终端window关闭的情况下在后台运行它:
dse spark-submit --master spark://master:7077 --executor-memory 2G --total-executor-cores 2 --packages org.apache.spark:spark-streaming-kafka_2.10: 1.4.1 --jars /spark-streaming-kafka_2.10-1.4.1.jar /sparktest.py
你有几个选择,第一个是使用像 https://tmux.github.io/ or https://www.gnu.org/software/screen/ 这样的终端会话管理器,它会在你断开连接时让终端保持活动状态
另一个是在你的命令前使用http://linux.die.net/man/1/nohup
尝试在命令末尾添加“&”:
spark-submit --master spark://master:7077 --executor-memory 2G --total-executor-cores 2 --packages org.apache.spark:spark-streaming-kafka_2.10:1.4.1 --jars /spark-streaming-kafka_2.10-1.4.1.jar /sparktest.py &