首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >缩放sparse_softmax_cross_entropy_with_logits

缩放sparse_softmax_cross_entropy_with_logits
EN

Stack Overflow用户
提问于 2018-01-19 21:59:44
回答 1查看 230关注 0票数 1

如果损失来自于sparse_softmax_cross_entropy_with_logits.,我如何缩放梯度?例如,我试图将下面的128除以,但我发现了错误:

代码语言:javascript
复制
new_gradients = [(grad/128, var) for (grad, var) in gradients] 
TypeError: unsupported operand type(s) for /: 'IndexedSlices' and 'int'

我使用的代码如下:

代码语言:javascript
复制
loss = tf.nn.sparse_softmax_cross_entropy_with_logits(logits=logits, labels=labels)

gradients = opt.compute_gradient(loss)

new_gradients = [(grad/128, var) for (grad, var) in gradients]

train_step = opt.appy_gradients(new_gradients)
EN

回答 1

Stack Overflow用户

发布于 2018-02-03 00:43:51

我找到了解决这个问题的方法如下:

代码语言:javascript
复制
new_gradients = [(grad/128, var) for (grad, var) in gradients]

应该是

代码语言:javascript
复制
new_gradients = [(tf.div(grad, 128), var) for (grad, var) in gradients]
票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/48350151

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档