首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Slurm多处理Python作业

Slurm多处理Python作业
EN

Stack Overflow用户
提问于 2015-09-15 20:08:24
回答 1查看 4.3K关注 0票数 4

我有一个4节点Slurm集群,每个都有6个核心。我想提交一个测试Python脚本(它产生的进程打印正在运行的节点的主机名),它使用以下多处理:

代码语言:javascript
复制
def print_something():
  print gethostname()

# number of processes allowed to run on the cluster at a given time
n_procs = int(environ['SLURM_JOB_CPUS_PER_NODE']) * int(environ['SLURM_JOB_NUM_NODES'])
# tell Python how many processes can run at a time
pool = Pool(n_procs)
# spawn an arbitrary number of processes
for i in range(200):
    pool.apply_async(print_something)
pool.close()
pool.join()

我用一个SBATCH脚本提交这个脚本,它指定了nodes=4和ntasks每个节点=6,但是我发现这个脚本被执行了4*6次。我只想让作业执行一次脚本,并允许Slurm在集群中分发生成的进程。

很明显我不明白什么.?

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2015-09-17 00:03:07

好吧,我想出来了。

我需要更好地理解SBATCH和SRUN之间的关系。主要而言,SBATCH可以充当SRUN调用的全局作业容器。

这里最大的因素是从到Subprocess。这样,SBATCH就可以执行python脚本,而python脚本又可以动态地调用另一个python脚本的SRUN子进程,并适当地分配集群资源。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/32594734

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档