如何 运行 pyspark 脚本不在 window 中显示 运行ning 进程
How to run pyspark script without show the running process in the window
我在服务器中有一个 pyspark 文件 test.py,我想 运行 这个文件带有一个参数 (teo)。
spark-submit --driver-memory=32g --executor-memory=32g test.py teo 2>&1 test.logs.
虽然当我 运行ning 时它开始在 window 中显示整个过程,但我不希望那样。相反,我想将所有 运行ning 过程存储在一个 .logs 文件中。
请按以下方式尝试
spark-submit --driver-memory=32g --executor-memory=32g test.py teo >> test.logs 2>&1
这会将终端输出重定向到 test.logs
我在服务器中有一个 pyspark 文件 test.py,我想 运行 这个文件带有一个参数 (teo)。
spark-submit --driver-memory=32g --executor-memory=32g test.py teo 2>&1 test.logs.
虽然当我 运行ning 时它开始在 window 中显示整个过程,但我不希望那样。相反,我想将所有 运行ning 过程存储在一个 .logs 文件中。
请按以下方式尝试
spark-submit --driver-memory=32g --executor-memory=32g test.py teo >> test.logs 2>&1
这会将终端输出重定向到 test.logs