首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >在GPU上进行训练并在CPU上进行推理时的模型精度

在GPU上进行训练并在CPU上进行推理时的模型精度
EN

Data Science用户
提问于 2021-05-27 12:25:03
回答 2查看 1.3K关注 0票数 0

当我们关心速度的时候,GPU比CPU好得多。

但是,如果我在GPU上训练一个模型,然后在CPU上部署同样经过训练的模型(不使用量化技术),这会影响我的模型的准确性吗?同一模型在CPU上的精度会下降吗?

我的直觉说,GPU和CPU之间的关系,如果涉及到精度,就不应该有任何区别。

但我有一点怀疑,GPU和CPU内部处理信息的方式各不相同。他们都有不同的建筑。当模型在GPU上进行训练时,在CPU上训练时是否会发生完全相同的处理方式,但速度要慢得多呢?我不关心训练时的准确性,但如果一个模型是在GPU上训练的,它在CPU上的性能是否完全相同?

EN

回答 2

Data Science用户

回答已采纳

发布于 2021-05-27 17:06:53

对于相同的输入,您得到的结果将是相同的。因此,对于任何实际目的,您获得的准确性将不取决于您是使用cpu还是gpu。

*达到浮点精度。来自这个职位网站的“火把论坛”:

两者都在实施浮点数计算标准。所以它们都是正确的(尽管他们可能是不同)

票数 1
EN

Data Science用户

发布于 2021-05-30 12:29:34

经过训练的模型只是一组定义良好的浮点数,即参数。

如果我们去预测,

它所做的是大量的乘法和加法输入数据和参数。这将由ALU ( CPU和GPU)完成。

一个CPU将有几个ALU,一个GPU将有数千个ALU。因此,它将很快完成任务。

所以,除非有不同的精度保持浮动,这可能积累在一个深网络,我不认为有任何理由,预测应该不同。

票数 1
EN
页面原文内容由Data Science提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://datascience.stackexchange.com/questions/94969

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档