gnu parallel 每个部门的工作之间没有依赖关系
gnu parallel no dependency between jobs in each division
假设我们有以下 GNU 并行命令:
parallel --resume-failed --joblog test.log --jobs 2 -m -k sh ::: 1.sh 2.sh 3.sh
第一个CPU:1.sh2.sh
第二个CPU:3.sh
现在如果 1.sh 失败,代码将重试 1.sh。如果 1.sh 仍然失败,那么 2.ish 也不会被执行。我想知道有没有如果1.sh失败我们先运行2.sh,最后再重试1.sh?谢谢
我感觉你真的不想要-m
:
$ parallel --dryrun --resume-failed --joblog test.log --jobs 2 -m -k sh ::: 1.sh 2.sh 3.sh
sh 1.sh 2.sh
sh 3.sh
这真的是您想要的吗运行? IE。将 2.sh
作为 1.sh
.
的参数
我想你想 运行 这个:
$ parallel --joblog test.log --jobs 2 -k sh ::: 1.sh 2.sh 3.sh
如果其中任何一个失败,您将通过以下方式恢复失败:
$ parallel --resume-failed --joblog test.log --jobs 2 -k sh ::: 1.sh 2.sh 3.sh
假设我们有以下 GNU 并行命令:
parallel --resume-failed --joblog test.log --jobs 2 -m -k sh ::: 1.sh 2.sh 3.sh
第一个CPU:1.sh2.sh
第二个CPU:3.sh
现在如果 1.sh 失败,代码将重试 1.sh。如果 1.sh 仍然失败,那么 2.ish 也不会被执行。我想知道有没有如果1.sh失败我们先运行2.sh,最后再重试1.sh?谢谢
我感觉你真的不想要-m
:
$ parallel --dryrun --resume-failed --joblog test.log --jobs 2 -m -k sh ::: 1.sh 2.sh 3.sh
sh 1.sh 2.sh
sh 3.sh
这真的是您想要的吗运行? IE。将 2.sh
作为 1.sh
.
我想你想 运行 这个:
$ parallel --joblog test.log --jobs 2 -k sh ::: 1.sh 2.sh 3.sh
如果其中任何一个失败,您将通过以下方式恢复失败:
$ parallel --resume-failed --joblog test.log --jobs 2 -k sh ::: 1.sh 2.sh 3.sh