使用mpirun conda环境slurm报错

Error in slurm for using mpirun conda environment

每当我在活动的 conda 环境中使用批处理脚本中的 mpirun 时,我都会收到错误消息(但如果我不使用批处理脚本,或者我不在 conda 中,则不会发生此错误环境)。

我有一个简单的测试代码 test.py

from mpi4py import MPI

comm = MPI.COMM_WORLD

n_proc = comm.Get_size()

proc_id = comm.Get_rank()

if proc_id == 0:
    print('Number of processors = '+str(n_proc))

print('Hello from proc id = '+str(proc_id))

如果我只是 运行 mpirun -np 5 python test.py 在登录节点,我得到预期的结果:

Number of processors = 5
Hello from proc id = 0
Hello from proc id = 1
Hello from proc id = 2
Hello from proc id = 3
Hello from proc id = 4

但是如果我使用下面的批处理脚本:

#!/bin/bash

# Submit this script with: sbatch <this-filename>

#SBATCH --time=0:30:00   # walltime
#SBATCH -n 5
#SBATCH --mem-per-cpu=10G   # memory per CPU core
#SBATCH --qos=normal # qos
#SBATCH -J "mpi"   # job name

## /SBATCH -p general # partition (queue)
## /SBATCH -o slurm.%N.%j.out # STDOUT
## /SBATCH -e slurm.%N.%j.err # STDERR

# LOAD MODULES, INSERT CODE, AND RUN YOUR PROGRAMS HERE
mpirun python test.py 

和运行 sbatch batch_script,然后我得到以下错误:

Error: node list format not recognized. Try using '-hosts=<hostnames>'.
/var/spool/slurmd/job12649152/slurm_script: line 21: 224459 Aborted                 (core dumped) mpirun python test.py

我尝试添加行 #SBATCH -hosts=n1,但我仍然得到完全相同的错误(除了输出文件的文件名变为 sts=n1)。我还尝试使用旧版本的 mpich (mpich/3.2.1) 构建另一个 conda 环境,但它也没有用。

如果任何命令依赖于正在初始化的 Conda and/or 正在激活的环境,则需要调整当前的 shebang。试试看

#!/bin/bash -l

这将告诉脚本在登录模式下 运行,然后它将获取初始化脚本(例如,.bashrc),Conda 初始化代码默认位于此处。