腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(9999+)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
将PyTorch转换为ONNX
模型
会增加ALBert的文件大小
目标:使用这个对albert-base-v2
模型
执行
量化
。 我认为这是
模型
性能较差的原因,与香草ALBert相比,ALBert的两种
量化
ALBert方法的
模型</
浏览 35
修改于2022-01-21
得票数 0
回答已采纳
1
回答
TFLite转换更改
模型
权重
但是,当我将
模型
转换为TFLite (全浮点,无
量化
)时,
模型
权重发生了很大的变化。2.3185202252437188e-32,-0.003990101162344217
大
的权重值完全颠覆了我在设备上的推断
浏览 2
提问于2018-10-10
得票数 0
1
回答
重新
量化
已经
量化
的
模型
是否有可能重新
量化
已经
量化
的
模型
? 我有一些
模型
,我已经训练与
量化
感知训练(QAT)与全整数
量化
。但是,我没有为GPU代表团提供这些模式。是否有一种方法,使我已经拥有的
模型
与Float16
量化
,以便能够运行他们与GPU代表。
浏览 2
提问于2020-08-20
得票数 0
2
回答
如何在tensorflow中结合variables.data和saved_model.pb
我使用keras训练了一个用于句子分类的CNN,并使用以下代码导出了该
模型
config = model.get_config() weights = model.get_weights最后,我想将
模型
量化
为变量文件大小非常
大
,我认为在使用tensorflow的
量化
功能之前,我需要将我的
模型
冻结在pb文件中。请帮帮忙
浏览 2
提问于2017-11-28
得票数 0
1
回答
为什么来自
量化
感知训练
模型
的TFLite
模型
与具有相同权重的正常
模型
不同?
我正在训练一个Keras
模型
,我想在一个
量化
的8位环境(微控制器)中使用TFLite来部署它。为了提高
量化
性能,我进行
量化
感知训练。然后,我使用我的验证集作为一个有代表性的数据集创建
量化
的TFLite
模型
。性能使用验证集进行评估,并在此图像中加以说明: 如果不是简单地从经过QA训练的
模型
(图中红色)生成TFLite
模型
(图中的青色),而是将经过QA训练的
模型
中的权重复制到原始
模型
中,然后生成TFLite我理解TFL
浏览 9
提问于2021-03-02
得票数 0
回答已采纳
1
回答
为什么TensorFlow Lite
模型
在动态范围
量化
时在延迟上表现很好,而在全整数
量化
时表现很差?
我正在测试两个具有相同架构的CNN(我正在用Windows操作系统在我的笔记本上测试它们): 第一个
模型
:使用TensorFlow优化的TFLite
模型
及其权重
量化
(使用Python进行转换,用tensorflow.lite.Optimize.DEFAULT
量化
)。第二个
模型
:使用TensorFlow优化的TFLite
模型
及其权重和激活,对进行
量化
(使用Python进行转换,用tensorflow.lite.Optimize.DEFAULT +进行
量化</e
浏览 2
修改于2021-03-29
得票数 0
0
回答
Tensorflow:
量化
图不适用于inception-resnet-v2
模型
我使用对inception-resnet-v2
模型
进行了
量化
。冻结图大小(
量化
输入)为224,6MB,
量化
图大小为58.6MB。我对某些数据集进行了准确性测试,其中,对于冻结的图,准确率为97.4%,而对于
量化
的图,准确率为0%。 有没有一种不同的方法来
量化
inception-resnet版本的
模型
?或者,对于inception resnet
模型
,根本不支持
量化
?
浏览 10
提问于2017-06-08
得票数 1
1
回答
用于目标检测的
量化
目标检测
模型
的
量化
与分类
模型
的
量化
有何不同?由于检测
模型
需要处理bbox坐标(一个输入中的多个对象),因此在
量化
中必须有一些缩放技巧。
浏览 37
提问于2020-08-26
得票数 0
1
回答
XGBoost
模型
量化
-学习
模型
量化
我正在寻找
量化
滑雪板
模型
的解决方案。我是专门寻找XGBoost
模型
。将sklearn
模型
转换为ONNX,然后尝试
量化
ONNX
模型
,但这也不起作用。这是指向的链接。 任何指针或解决方案都可以共享,这将有很大帮助。
浏览 6
提问于2022-01-27
得票数 0
1
回答
培训后是否有可能
量化
各个层次的权重/激活?
量化
意识的培训在坦索弗洛允许我
量化
使用不同的
量化
配置的个人水平使用tensorflow_model_optimization.quantization.keras.quantize_annotate_layer在Tensorflow的训练后
量化
文档中,下面是一个将
模型
量化
为float16的示例。converter.target_spec.supported_types = [tf.float16]然而,我
浏览 16
提问于2022-10-13
得票数 0
1
回答
检查
模型
的
量化
状态
我有一个Keras (而不是tf.keras)
模型
,我
量化
了它(训练后)在嵌入式设备上运行它。现在,我想检查
模型
是如何被
量化
的(完全,只有权重,.)因为嵌入式解决方案只需要一个完全
量化
的
模型
。我希望看到更多的细节,例如,重量的差异(也许解释不同的
模型
浏览 3
修改于2020-06-29
得票数 1
回答已采纳
1
回答
巨蟒的负荷-流场
模型
我正在使用Tensorflow Lite进行一个TinyML项目,该项目包括
量化
模型
和浮点
模型
。在我的管道中,我使用tf.keras API训练我的
模型
,然后将
模型
转换成TFLite
模型
。最后,将TFLite
模型
量化
为int8
模型
。我可以使用API model.save和tf.keras.model.load_model保存和加载“正常”的tensorflow
模型
对转换后的TFLite
模型
也可以这
浏览 3
提问于2021-06-25
得票数 2
回答已采纳
1
回答
是否可以在densenet169上执行
量化
,以及如何执行
量化
?
我一直试图对一个密集的
模型
进行
量化
,但没有成功。我一直在尝试实现pytorch后的训练静态
量化
。Pytorch有其他型号的
量化
版本,但没有用于密度集的版本。是否可以
量化
密集的体系结构。我一直在寻找如何将
量化
应用于预先训练的
模型
的教程,但我没有取得任何成功。
浏览 40
修改于2022-11-29
得票数 0
2
回答
如何在tensorflow/示例中转换像mobilenet_v1_1.0_224_quant.tflite这样的
模型
?
我正在尝试int8
量化
我的
模型
在TensorFlow Lite上。转换本身使用tensorflow 1.15.3,但转换
模型
在麒麟990上运行得非常慢。我的
模型
是int8(tf.lite.OpsSet.TFLITE_BUILTINS_INT8)
量化
,而mobilenet_v1_1.0_224_quant.tflite则是uint8
量化
。Conv2D的“过滤器”属性在mobilenet_v1_1.0_224_quant.tflite中有一个“
量化
”属性,而在我的转换<em
浏览 9
提问于2020-09-02
得票数 2
1
回答
OpenCV中是否有
量化
RGB值的功能?
我需要将RGB值
量化
为29个统一颜色字典。我在Matlab中使用了rgb2ind(image,29)。 那么,在OpenCV中是否有任何功能或有效的方法来
量化
图像颜色呢?(我需要
量化
图像颜色,因为我想得到一个29
大
小的颜色直方图)
浏览 7
修改于2014-05-18
得票数 1
回答已采纳
1
回答
如何将TFLite
模型
转换为
量化
的TFLite
模型
?
我有一个tflite文件,我想
量化
它。 如何将TFLite
模型
转换为
量化
的TFLite
模型
?
浏览 19
提问于2020-10-15
得票数 1
1
回答
基于tensorflow
模型
推理的正确预处理流水线
这个问题与从标准的Mobilenetv2
模型
转换而来的tflite
模型
的推断有关. 为什么推理管道有这种区别?有人能帮助正确的步骤,既
量化
的和非
量化
的(浮点
模型
) tflite
模型<
浏览 7
提问于2020-06-11
得票数 1
1
回答
如何确认我的pytorch
模型
的权重是否已被
量化
我使用英特尔lpot()成功地
量化
了一个用于huggingface文本分类的pytorch
模型
。model = AutoModelForSequenceClassification.from_pretrained('fp32/model/pathfrom lpot.utils.pytorch import load mode
浏览 29
提问于2021-09-29
得票数 0
3
回答
TensorFlow伪
量化
层也是从TF-Lite调用的。
我使用TensorFlow 2.1来训练具有
量化
感知训练的
模型
.这些节点应该调整
模型
的权重,这样它们就更容易被
量化
为int8,并且更容易处理int8数据。当训练结束时,我将
模型
转换成TF-Lite,如下所示:converter.optimizations此外,当我在this C++ 中运行这个
量化
模型
时,我看到它在推理过程中也运行假
量化</e
浏览 10
提问于2020-06-17
得票数 5
1
回答
我可以
量化
我的tensorflow图表的完整版本的TF,而不是tflite?
我需要
量化
我的
模型
,以便在tensorflow的完整版中使用。我不知道该怎么做(在
模型
量化
的官方手册中,
模型
是以tflite格式保存的)
浏览 4
提问于2019-07-04
得票数 0
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券