微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

slurm 使用 mpirun conda 环境出错

如何解决slurm 使用 mpirun conda 环境出错

每当我在活动的 conda 环境中在批处理脚本中使用 mpirun 时都会收到错误(但如果我不使用批处理脚本或不在 conda 环境中,则不会发生此错误) .

我有一个简单的测试代码,名为 test.py

from mpi4py import MPI

comm = MPI.COMM_WORLD

n_proc = comm.Get_size()

proc_id = comm.Get_rank()

if proc_id == 0:
    print('Number of processors = '+str(n_proc))

print('Hello from proc id = '+str(proc_id))

如果我只是在登录节点运行 mpirun -np 5 python test.py,我会得到预期的结果:

Number of processors = 5
Hello from proc id = 0
Hello from proc id = 1
Hello from proc id = 2
Hello from proc id = 3
Hello from proc id = 4

但是如果我使用以下批处理脚本:

#!/bin/bash

# Submit this script with: sbatch <this-filename>

#SBATCH --time=0:30:00   # walltime
#SBATCH -n 5
#SBATCH --mem-per-cpu=10G   # memory per cpu core
#SBATCH --qos=normal # qos
#SBATCH -J "mpi"   # job name

## /SBATCH -p general # partition (queue)
## /SBATCH -o slurm.%N.%j.out # STDOUT
## /SBATCH -e slurm.%N.%j.err # STDERR

# LOAD MODULES,INSERT CODE,AND RUN YOUR PROGRAMS HERE
mpirun python test.py 

然后运行 ​​sbatch batch_script,然后出现以下错误

Error: node list format not recognized. Try using '-hosts=<hostnames>'.
/var/spool/slurmd/job12649152/slurm_script: line 21: 224459 Aborted                 (core dumped) mpirun python test.py

我尝试添加#SBATCH -hosts=n1,但仍然出现完全相同的错误(除了输出文件文件名变为 sts=n1)。我还尝试使用旧版本的 mpich (mpich/3.2.1) 构建另一个 conda 环境,但它也不起作用。

解决方法

如果任何命令依赖于正在初始化的 Conda 和/或正在激活的环境,则需要调整当前的 shebang。试试吧

#!/bin/bash -l

这将告诉脚本在登录模式下运行,然后将获取初始化脚本(例如,.bashrc),默认情况下 Conda 初始化代码所在的位置。

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。