首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >在RTX3060上使用在RTX2080上训练的Pytorch模型

在RTX3060上使用在RTX2080上训练的Pytorch模型
EN

Stack Overflow用户
提问于 2021-10-15 09:51:55
回答 1查看 76关注 0票数 1

我尝试在支持CUDA的较新的Nvidia RTX3060上运行我的PyTorch模型(在Nvidia RTX2080上训练)。可以加载模型并执行它。如果我在带有--no_cuda标志的CPU上运行它,它运行得很流畅,并返回正确的预测,但如果我想用CUDA运行它,它只返回错误的预测,这是没有意义的。显卡的不同GPU架构是否会影响预测?

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2021-10-25 10:28:59

好的,看起来问题出在两种架构的不同浮点上。需要设置标志torch.backends.cuda.matmul.allow_tf32 = false,以提供不同体系结构的模型的稳定执行。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/69582900

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档