首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >在PyTorch中指定了具有gpu设备ID的DistributedDataParallel

在PyTorch中指定了具有gpu设备ID的DistributedDataParallel
EN

Stack Overflow用户
提问于 2021-10-25 05:18:53
回答 1查看 64关注 0票数 0

我想在一台有8个GPU的机器上通过DistributedDataParallel训练我的模型。但我想在设备ID为4、5、6、7的四个指定GPU上训练我的模型。

如何为DistributedDataParallel指定GPU设备ID?

我认为在这种情况下,世界大小将是4,但在这种情况下,应该是什么排名?

EN

回答 1

Stack Overflow用户

发布于 2021-10-25 13:14:12

您可以设置环境变量CUDA_VISIBLE_DEVICES。Torch将读取此变量,并仅使用其中指定的GPU。您可以直接在python代码中这样做:

代码语言:javascript
复制
import os
os.environ['CUDA_VISIBLE_DEVICES'] = '4, 5, 6, 7'

在以任何方式初始化torch之前,请注意执行此命令,否则语句将不会生效。另一种选择是在shell中启动脚本之前临时设置环境变量:

代码语言:javascript
复制
CUDA_VISIBLE_DEVICES=4,5,6,7 python your_script.py
票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/69703158

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档