腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(34)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
是否需要对使用
TFMOT
修剪的模型进行重新培训?
我正在尝试使用
TFMOT
(Tensorflow model Optimization ToolKit)修剪一个预先训练好的模型。是否有必要重新训练修剪后的模型以获得更小的gzip大小?
浏览 39
提问于2020-11-05
得票数 0
1
回答
为什么剪枝参数在tensorflow的
tfmot
中增加
我修剪了一个模型,并遇到了一个库TensorFlow模型优化,因此,最初,我们有 我在一个默认的数据集上训练了这个模型,它给了我96 %的准确率,这是很好的。然后,我将模型保存在JSON文件中,并将模型的权重保存在h5文件中,现在我将该模型加载到另一个脚本中,以便在应用剪枝和编译模型之后对其进行剪枝,得到了模型摘要。 虽然模型修剪得很好,参数也有了很大的减少,但是问题是为什么参数在应用修剪后会增加,而且即使在重新移动不可训练的参数之后,修剪和简单的模型仍然有相同数量的参数,任何人都可以解释我这是正常的还是我做错了什么。另外,请解释为什么会发生这种情况。预先谢谢各位:)
浏览 5
提问于2021-02-07
得票数 5
回答已采纳
1
回答
如何为
tfmot
.sparsity.keras.prune_low_magnitude设置可调整的层?
我正在应用从tensorflow_model_optimization,
tfmot
.sparsity.keras.prune_low_magnitude()到MobileNetV2的剪枝功能。
浏览 1
提问于2019-11-05
得票数 0
回答已采纳
1
回答
tfmot
.sparsity.keras.prune_low_magnitude
我想修剪一个tf层的最高重量值。我正在考虑使用tf.nn.top_k,但我不太确定我将如何做到这一点。pruning_params = { final_sparsity=0.8, begin_step=1000, end_step=2000), 'block_pooling_type': 'MAX' model
浏览 2
提问于2019-08-07
得票数 2
回答已采纳
1
回答
Tensorflow量化感知训练
import tensorflow_model_optimization as
tfmot
quantize_model =
tfmot
.quantization.keras.quantize_modeltensorflow.python.keras.layers.normalization_
浏览 45
提问于2021-01-08
得票数 0
回答已采纳
1
回答
ValueError:未知层: AnchorBoxes量化流
#quant_aware_model =
tfmot
.quantization.keras.quantize_apply(annotated_model) 我在上面的代码中注释了这一行quant_aware_model=
tfmot
.quantization.keras.quantize_apply(annotated_model),因为它抛出了错误ValueError: Unknown layer: AnchorBoxes#quant_aware_model =
tfmot
.quantization.keras.quantize_appl
浏览 5
提问于2021-01-21
得票数 0
回答已采纳
1
回答
在保留稀疏性和聚类的同时从TensorFlow量化中排除重标度层
not isinstance(layer, tf.keras.layers.Rescaling): return
tfmot
.quantization.keras.quantize_annotate_layerstripped_clustered_model,) pcqat_model =
tfmot
.quantization.kera
浏览 10
修改于2022-11-21
得票数 2
1
回答
量化感知训练比后量化差
class DefaultDenseQuantizeConfig(
tfmot
.quantization.keras.QuantizeConfig): pass return [
tfmot
.quantization.keras.quantizers.MovingAverageQuantizer= self.base_m
浏览 66
提问于2021-11-02
得票数 0
1
回答
如何使用迁移学习模型进行剪枝?
import tensorflow_model_optimization as
tfmot
pruning_params = { 'pruning_schedule':
tfmot
.sparsity.keras.PolynomialDecay
浏览 44
修改于2021-06-25
得票数 0
5
回答
我们能修剪一个预先训练过的模型吗?示例: MobileNetV2
,这些是我的进口品.import tensorflow_model_optimization as
tfmot
epochs=5, 'pru
浏览 15
修改于2020-10-23
得票数 3
1
回答
利用函数API进行量化感知训练的迁移学习
我试着做的是:import tensorflow_model_optimization as
tfmot
layer.trainable = Falsequantize_model_pretrained =
tfmot
.quantization.keras.quantize_modelactivation=&q
浏览 9
修改于2022-07-11
得票数 1
回答已采纳
1
回答
如何从TensorFlow的量化感知训练中获得量化权重
下面是我的量化配置类: # Configure how to quantizedef get_weights_and_quantizers(self, layer): return [(layer.kernel,
tfmot
.quantization.keras.quantizers.LastValueQuantizerdef get_activations_and_quantizers(self, layer)
浏览 11
修改于2021-03-04
得票数 2
1
回答
Tensorflow模型剪枝为训练和验证损失提供“nan”
pruning_params = { epochs, batch_size, validation_split=0.1):
tfmot
.sparsity.keras.UpdatePruningStep(),
tfmot
.sparsit
浏览 4
提问于2021-08-17
得票数 0
回答已采纳
1
回答
具有自定义层的定制模型的量化(完整的int 8)
class DefaultDenseQuantizeConfig(
tfmot
.quantization.keras.QuantizeConfig): "CustomLayer": CustomLayer q_aware_model =
tfmot
.quantization.keras.quantize_model(tflite_m
浏览 5
提问于2022-05-24
得票数 3
1
回答
不支持图层(当使用QAT训练Keras模型时)
如何在不使用每一层
tfmot
.quantization.keras.quantize_annotate_layer的情况下直接预防它?
浏览 22
提问于2020-09-29
得票数 0
1
回答
不支持Tensorflow修剪层
) return model 下面是代码的修剪部分 pruning_params = { metrics=['accuracy']) callbacks = [ <e
浏览 120
提问于2021-02-02
得票数 0
1
回答
Keras + Tensorflow模型优化: TypeError: clone_model()获得意外的关键字参数'clone_function‘
),]) initial_sparsity=0.0, final_sparsity=0.5, begin_step=2000, end_step=4000
浏览 43
提问于2019-05-16
得票数 2
回答已采纳
2
回答
运行MNIST TPU时未找到Tensorflow模块错误
image_classification/resnet/common.py", line 26, in <module> import tensorflow_model_optimization as
tfmot
浏览 30
提问于2020-05-20
得票数 0
回答已采纳
1
回答
ValueError:不支持对另一个tf.keras模型中的tf.keras模型进行量化
tf.keras.layers.Flatten(),]) 9 10 quantize_model =
tfmot
.quantization.
浏览 4
提问于2022-05-16
得票数 1
回答已采纳
1
回答
initial_sparsity参数在基于sparsity.PolynomialDecay() TensorFlow 2.0量级的权重剪枝中的应用
import tensorflow_model_optimization as
tfmot
pruning_params_unpruned = { 'pruning_schedule
浏览 3
修改于2020-01-31
得票数 6
第 2 页
领券