通过SLURM运行令人尴尬的并行作业

时间:2019-07-06 02:41:51

标签: bash parallel-processing slurm

我是SLURM的新手,我对在不同子目录中运行“令人尴尬的并行”程序很感兴趣。

就像在MWE Bash脚本中一样,我只需更改文件中的参数,然后使用此新参数重新运行程序。但是,我有兴趣并行运行所有(在这种情况下为100)情况,并在不同的子目录(例如,标记为1到100的文件夹)中输出程序的输出。

我在下面设置for循环并使用SLURM运行程序没有问题-但是,我不确定(无需手动提交所有作业)如何自动化并行化。

#!/bin/bash
for j in {1..100}
do
sed -i -e "s/x .*/x $j/g" ./runfile
./program < runfile
done

0 个答案:

没有答案