首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >tf.nn.batch_normalization与tf.nn.batch_norm_with_global_normalization的区别

tf.nn.batch_normalization与tf.nn.batch_norm_with_global_normalization的区别
EN

Stack Overflow用户
提问于 2017-08-01 10:02:30
回答 1查看 1K关注 0票数 0

我正在尝试使用tensorflow实现批处理规范化,并找到了这个nice post。这两个函数似乎采用了相似的参数,但似乎人们更多地使用后者。

它们可以互换使用吗?如果不是,有何不同?(为什么tensorflow中有这么多类似的API?另一个例子是tf.nn.softmax_cross_entropy_with_logitstf.losses.softmax_cross_entropy。我尝试了这两种方法,它们似乎都工作得很好,但我觉得我可能遗漏了一些微妙的东西,这可能会彻底改变我的训练结果。

EN

回答 1

Stack Overflow用户

发布于 2018-04-27 12:08:39

我想tf.nn.batch_normalization更好

tf.nn.batch_norm_with_global_normalization方法是旧版本,将在以后弃用

我想你会找到一个更好的答案here

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/45427828

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档