腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(9999+)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
矩阵的
INT8
量化
受到“Transformer神经机器语言翻译模型的高效8位
量化
”的启发,我决定遵循这篇论文的警告。然而,我对在
量化
过程中设置偏移量变量感到困惑。
浏览 12
修改于2021-10-23
得票数 0
1
回答
FP32矩阵乘法的
INT8
量化
我尝试在FloatingPoint32bit矩阵乘法之前应用INT8bit
量化
,然后将累积的INT32bit输出重新
量化
为INT8bit。毕竟,我猜在这个过程中有几个地方搞错了。数据流仿射
量化
input(fp32) -> quant(
int8
) -/INPUT(FP32)
浏览 8
修改于2021-10-18
得票数 0
1
回答
用
INT8
量化
tflite模型运行推理
**大家好,我最近把tensorflow浮子模型转换成了tflite
量化
的
INT8
模型,最后我得到了模型,没有错误。我想在python中使用这个模型进行推论,但是我不能得到好的结果。zero_point)* scale print(tflite_output),你能告诉我如何用这个
量化
的模型(输入和输出转换成
INT8
)来预测一个类,并且有正确的概率值吗?
浏览 3
提问于2021-03-23
得票数 0
1
回答
如何将grid_sample模型转换为
INT8
量化
的TensorRT模型?
我试图通过ONNX (opset 11)将torch.nn.functional.grid_sample的模型从Pytorch (1.9)转换为使用
INT8
量化
的
INT8
(7)。有了它,转换到TensorRT (有和没有
INT8
量化
)是成功的。没有
INT8
量化
的Pytorch和TRT模型提供的结果接近相同的结果(MSE为e-10阶)。在这种情况下,TensorRT结果与不带
INT8
量化
的结果是相同的。这样的
量化
不是
浏览 2
修改于2021-09-22
得票数 0
1
回答
Python sounddevice.rec(),dtype =‘
int8
8’
量化
为零问题
但是我试着用dtype = '
int8
‘在相同的声音水平上说话,我的情节是零线。一种想法是,可能8位的
量化
器有一个更大的死区,所以对于相同的输入语音级别,
量化
器会降低0的值。当然,我为
量化
器的类型做了一个假设。我还没有看到
量化
器是否是均匀的死区。
浏览 25
修改于2021-12-07
得票数 0
1
回答
全
量化
除
int8
数据外,不能将模型输入层更改为
int8
。
我正在将角星h5模型
量化
为uint8。为了得到完全的uint8
量化
,用户在中告诉我,有代表性的数据集应该已经在uint8中了,否则输入层仍然在float32中。问题是,如果我输入uint8数据,则在调用converter.convert()期间会收到以下错误 我错过了什么?你知道解决办法吗?非常感谢。
浏览 13
提问于2020-09-10
得票数 0
2
回答
火炬中的
int8
数据类型
怎样才能最好地使用
int8
数据类型来运行
量化
模型呢?我知道在pytorch中我可以将张量定义为,但是,当我真正想要使用
int8
时,我得到:因此,我很困惑,如何在pytorch中运行
量化
模型,例如,当计算块(如卷积)不支持数据类型时,如何使用
int8
?
浏览 0
修改于2019-03-22
得票数 1
回答已采纳
1
回答
TFLITE无法将tensorflow模型的输入和输出
量化
为
INT8
我想用
量化
转换整个模型,但当我完成这一步并可视化模型的体系结构时,我发现输入和输出仍然是浮动的。你能帮我解决这个问题吗?
浏览 1
修改于2021-03-10
得票数 0
2
回答
如何在tensorflow/示例中转换像mobilenet_v1_1.0_224_quant.tflite这样的模型?
我正在尝试
int8
量化
我的模型在TensorFlow Lite上。转换本身使用tensorflow 1.15.3,但转换模型在麒麟990上运行得非常慢。我的模型是
int8
(tf.lite.OpsSet.TFLITE_BUILTINS_INT8)
量化
,而mobilenet_v1_1.0_224_quant.tflite则是uint8
量化
。Conv2D的“过滤器”属性在mobilenet_v1_1.0_224_quant.tflite中有一个“
量化
”属性,而在我的转换模型中,Conv2D的“
浏览 9
提问于2020-09-02
得票数 2
3
回答
TensorFlow伪
量化
层也是从TF-Lite调用的。
我使用TensorFlow 2.1来训练具有
量化
感知训练的模型.这些节点应该调整模型的权重,这样它们就更容易被
量化
为
int8
,并且更容易处理
int8
数据。此外,当我在this C++ 中运行这个
量化
模型时,我看到它在推理过程中也运行假
量化
节点。此外,它还对各层之间的激活进行了
量化
和
量化
。这是C++代码输出的一个示例: 投入:1节点1运算符内置代码114
量化
投入: 2
浏览 10
提问于2020-06-17
得票数 5
1
回答
如何找到
量化
matmul/conv2D运算的浮点输出范围
我是tensorflow和
量化
的新手,我正在尝试为两个
int8
输入实现
量化
矩阵操作。很好奇地想知道操作背后的数学原理。我在tensorflow中看到,他们只对uint8输入实现了同样的方法,想知道如何将其用于带符号的
int8
matmul/conv2D。
浏览 3
提问于2018-10-26
得票数 0
1
回答
基于
量化
LeNet5模型的TFLite推理。如何使用M参数将int32缩小到
int8
?
我使用TensorFlow Lite来
量化
FP32权重,并激活
INT8
。我提取并可视化了重量,偏倚,零分的鳞片,多亏了尼特恩. 我需要用C语言设计LeNet5 CNN。但是,我不明白用
INT8
格式进行推断的要点。从“有效整数-算术推理的神经网络
量化
和训练”:中,作者详细描述了用
量化
INT8
卷积进行推理的工作流程:在输入和权值之间的卷积步骤之后的,然后加上偏差,作者精确地说明了从INT32到
INT8
的降尺度是由M
浏览 17
提问于2021-12-22
得票数 0
1
回答
如何确认我的pytorch模型的权重是否已被
量化
我使用英特尔lpot()成功地
量化
了一个用于huggingface文本分类的pytorch模型。model = AutoModelForSequenceClassification.from_pretrained('fp32/model/pathlpot.utils.pytorch import load modellpot = load("path/to&
浏览 29
提问于2021-09-29
得票数 0
1
回答
如何
量化
OpenVINO工作台上的特定层?
我有一个经过训练的onnx模型,需要
量化
到
INT8
。但我希望我的最后一个完全连接的层仍然在FP32或FP16中。那么,我如何选择特定的层来
量化
(或不
量化
)?
浏览 13
提问于2022-11-09
得票数 0
1
回答
获得完全
量化
的TfLite模型,并在
int8
上进行输入和输出
我用Tensorflow 1.15.3
量化
了一个Keras h5模型(Tf1.13;keras_vggface模型),以便与NPU一起使用它。converter.inference_output_type = tf.int8 # or tf.uint8我得到的
量化
模型一见钟情输入层类型为
int8
,滤波器为
int8
,偏置为int32,输出为
int8
。 然而,模型在输入层之后有一个
量化
层,输入层是float
浏览 4
修改于2020-09-11
得票数 1
回答已采纳
2
回答
用于珊瑚开发板(coral.ai)的.pb到tflite
int8
的转换问题
/tensorflow-yolov4-tflite将生成的权重文件转换为tensorflow lite,我能够将yolo权重转换为pb和tflite float16,但使用此存储库转换为tflite
int8
我尝试了很多东西来把它转换成tflite
int8
。 我现在正在与珊瑚开发板,这需要tflite
int8
量化
,请指导我如何转换的pb权重文件到tflite
int8
。
浏览 36
提问于2021-04-07
得票数 0
1
回答
是否可以将TFLite配置为将带有偏置
量化
的模型返回到
int8
?
为此,我使用Tensorflow Lite提供的训练后
量化
机制对原始ANN进行了
量化
。如果权重确实
量化
为
int8
,则会将偏移从float转换为int32。考虑到我假装在CMSIS-NN中实现这个ANN,这是一个问题,因为他们只支持
int8
和int16数据。 是否可以将TF Lite配置为也将偏差
量化
为
int8
?
浏览 18
提问于2020-08-07
得票数 2
1
回答
在英特尔处理器上,Tflite Quant推理比TFlite float32慢
当我转换为TFlite
INT8
量化
时,它的推理速度在英特尔8核英特尔酷睿i9 2.3 GHz上约为2 fps。这在CPU上是预期的吗?有人能解释一下是什么导致
INT8
推理速度慢吗?
浏览 45
提问于2020-10-30
得票数 0
1
回答
巨蟒的负荷-流场模型
我正在使用Tensorflow Lite进行一个TinyML项目,该项目包括
量化
模型和浮点模型。在我的管道中,我使用tf.keras API训练我的模型,然后将模型转换成TFLite模型。最后,将TFLite模型
量化
为
int8
模型。每次都要经历
量化
过程,这是相当耗时的。
浏览 3
提问于2021-06-25
得票数 2
回答已采纳
2
回答
如何将分割模型转换为openvino
int8
模型?
我正在尝试将我的tensorflow分割模型转换为带有
量化
的openvino。我使用openvino模型优化器将我的.pb模型转换为中间表示。而是如何
量化
模型。我可以在没有数据集的情况下将我的模型转换为
int8
吗?或者我可以创建要分割的数据集吗?
浏览 0
提问于2019-10-08
得票数 0
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券