首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >基于cpu的fp16推理

基于cpu的fp16推理
EN

Stack Overflow用户
提问于 2020-05-31 14:39:40
回答 1查看 1.6K关注 0票数 0

我有一个pretrained pytorch模型,我想在fp16而不是fp32上推断,我已经在使用gpu时尝试过了,但是当我在cpu上尝试它时,我得到了:"sum_cpu" not implemented for 'Half' torch。有什么修复方法吗?

EN

回答 1

Stack Overflow用户

发布于 2021-01-11 14:46:59

据我所知,Pytorch中的许多基于CPU的操作都没有实现来支持FP16;相反,从CUDA7.0(Ish)开始,NVIDIA GPU就有了对FP16和PyTorch的硬件支持(例如,Turing arch GPU中的张量内核)。要通过量化到FP16来加速CPU上的推断,您可能需要尝试torch.bfloat16 dtype(https://github.com/pytorch/pytorch/issues/23509)。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/62112534

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档