首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >火炬中的int8数据类型

火炬中的int8数据类型
EN

Stack Overflow用户
提问于 2019-03-21 21:43:40
回答 2查看 790关注 0票数 1

怎样才能最好地使用int8数据类型来运行量化模型呢?我知道在pytorch中我可以将张量定义为int8,但是,当我真正想要使用int8时,我得到:

代码语言:javascript
复制
RuntimeError: _thnn_conv2d_forward is not implemented for type torch.CharTensor

因此,我很困惑,如何在pytorch中运行量化模型,例如,当计算块(如卷积)不支持数据类型时,如何使用int8?我使用的是pytorch版本的1.0.1.post2

EN

回答 2

Stack Overflow用户

回答已采纳

发布于 2019-03-22 05:08:36

取决于你的目标是什么。

  1. 如果您想模拟您的量化模型:

您可以坚持现有的浮点数据类型,并且只在需要时引入截断,即:

代码语言:javascript
复制
 x = torch.floor(x * 2**8) / 2**8

假设x是一个浮动张量。

  1. 如果您想要有效地模拟量化模型

那么,恐怕PyTorch不是很有用,因为低级别卷积运算符仅用于浮点类型。

票数 1
EN

Stack Overflow用户

发布于 2022-07-12 18:10:19

在最近的Pytorch版本中,本机支持量化的张量运算。这意味着您可以执行大多数常见操作(Conv、ReLU、Linear等)。关于量化张量(目前只有CPU不幸)。请参阅https://pytorch.org/docs/stable/quantization-support.html

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/55289703

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档