由于tf.nn.softmax_cross_entropy_with_logits在gen_nn_ops中的源代码是隐藏的,有人能解释一下tensorflow是如何在Softmax之后计算交叉熵的吗?我的意思是,在softmax之后,由于精度的原因,它可能会输出0,从而产生一个具有交叉熵的NaN问题。当softmax绑定其输出时,tensorflow是否使用剪辑方法?
发布于 2017-10-31 14:18:41
https://stackoverflow.com/questions/46832865
复制相似问题