首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >lr_mult = 0的影响是什么?

lr_mult = 0的影响是什么?
EN

Stack Overflow用户
提问于 2018-05-15 16:22:25
回答 1查看 420关注 0票数 3

我正在查看一些Caffe网络构建代码(在BerkeleyVision pascalcontext fcn8s net.py文件中),我发现这一行:

代码语言:javascript
复制
L.Deconvolution(n.score_fr,
    convolution_param=dict(num_output=60, kernel_size=4, stride=2,
        bias_term=False),
    param=[dict(lr_mult=0)])

我想知道lr_mult = 0这个词是干什么的。看完文档后,我的第一个猜测是,它应该阻止内核权重的任何更新,但这似乎很奇怪,因为我假设默认的初始化是随机的。这是干什么用的?是否有其他代码或参数文件正在初始化内核?

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2018-05-16 07:25:24

  1. 你是对的。设置lr_mult=0会冻结层的重量。在整个训练过程中,权重将保持不变,不会改变其初始值。
  2. 如果您遵循代码,您将看到对surgery.interp的调用,此函数将在培训开始之前设置升级层的初始权重。由于lr_mult=0,这些权重仍然固定在这些值上。
票数 2
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/50355013

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档