首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >在tf.layers.batch_normalization(training=?)中使用和不使用training=True有什么区别?

在tf.layers.batch_normalization(training=?)中使用和不使用training=True有什么区别?
EN

Stack Overflow用户
提问于 2018-03-21 13:05:06
回答 1查看 90关注 0票数 1

最近,我做了一个关于使用:tf.layers.batch_normalization(input, training=True)using tf.layers.batch_normalization(input)的实验,这两种情况都处于训练阶段。

但是发生了一些奇怪的事情。如果我使用:tf.layers.batch_normalization(input, training=True)tf.summary创建的tfevent file大约是400MB,但是如果我使用tf.layers.batch_normalization(input),这个文件只有20MB,我不能理解其中的原因。

EN

回答 1

Stack Overflow用户

发布于 2018-03-21 15:20:15

正如所解释的那样,在训练verus测试时间期间,here批量规范化具有不同的行为:

在测试阶段,您可以根据小批量统计信息归一化层激活,而在测试阶段,您可以根据估计的总体统计信息进行归一化。

此行为由training参数控制,如TensorFlow's documentation中所述。

因此,在测试期间,存储的信息很少。但是,您不应该将其设置为用于培训目的。

希望这能有所帮助!

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/49398551

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档