首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >NVLink是否加速了DistributedDataParallel的训练?

NVLink是否加速了DistributedDataParallel的训练?
EN

Stack Overflow用户
提问于 2021-01-18 15:42:30
回答 1查看 761关注 0票数 2

Nvidia的NVLink加速了同一台机器上几个GPU之间的数据传输。我用PyTorch在这样的机器上训练大型模型。

我明白为什么NVLink会使模型并行培训更快,因为一次通过模型将涉及多个GPU。

但是它是否会加速使用DistributedDataParallel的数据并行训练过程?

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2021-01-18 15:53:43

k GPU上的数据并行培训是如何工作的?

您将您的小批处理拆分为k部件,每个部分在不同的GPU上转发,并且在每个GPU上估计梯度。但是,更新权重必须在所有GPU之间同步(这是非常关键的)。这也是NVLink在数据并行培训中变得重要的地方。

票数 3
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/65777660

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档