我正在尝试将一个用纯python编写的强化学习脚本改编成tensorflow。
我设计了它,当我开始对它进行采样时,我在前向传播中获得了完全相同的值(对于第一个样本),但随后我的反向传播和梯度值并不相同(甚至不接近)。
我认为这与通过RELU非线性的背部支撑有关,但我也不完全确定。
了解网络架构的一步一步反向传播的最简单方法是什么?
发布于 2016-11-19 09:01:29
一种方法是打印反向传播梯度的值:
optimizer = tf.train.AdamOptimizer()
variables = tf.trainable_variables()
gradients = optimizer.compute_gradients(cost, variables)然后,可以通过将计算出的渐变值传递给sess.run函数来检查这些值
https://stackoverflow.com/questions/40687278
复制相似问题