我正在尝试使用tensorflow实现批处理规范化,并找到了这个nice post。这两个函数似乎采用了相似的参数,但似乎人们更多地使用后者。
它们可以互换使用吗?如果不是,有何不同?(为什么tensorflow中有这么多类似的API?另一个例子是tf.nn.softmax_cross_entropy_with_logits和tf.losses.softmax_cross_entropy。我尝试了这两种方法,它们似乎都工作得很好,但我觉得我可能遗漏了一些微妙的东西,这可能会彻底改变我的训练结果。
发布于 2018-04-27 12:08:39
我想tf.nn.batch_normalization更好
tf.nn.batch_norm_with_global_normalization方法是旧版本,将在以后弃用
我想你会找到一个更好的答案here
https://stackoverflow.com/questions/45427828
复制相似问题