首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >softmax和log-softmax有什么区别?

softmax和log-softmax有什么区别?
EN

Stack Overflow用户
提问于 2018-03-12 13:34:38
回答 2查看 5.1K关注 0票数 4

这两个函数之间的区别已经在本文中描述:软糖和软糖? is:exp(x_i) / exp(x).sum()和log是:log(exp(x_i) / exp(x).sum())

但是对于下面的Pytorch代码,为什么我得到了不同的输出:

代码语言:javascript
复制
>>> it = autograd.Variable(torch.FloatTensor([0.6229,0.3771]))
>>> op = autograd.Variable(torch.LongTensor([0]))
>>> m  = nn.Softmax()
>>> log = nn.LogSoftmax()
>>> m(it)
Variable containing:
`0.5611  0.4389`
[torch.FloatTensor of size 1x2]
>>>log(it)
Variable containing:
-0.5778 -0.8236
[torch.FloatTensor of size 1x2]

但是,值log(0.5611)为-0.25095973129,log(0.4389)为-0.35763441915。

为何会有这样的差异呢?

EN

回答 2

Stack Overflow用户

回答已采纳

发布于 2018-03-12 14:20:33

默认情况下,torch.log提供输入的自然对数,因此PyTorch的输出是正确的:

代码语言:javascript
复制
ln([0.5611,0.4389])=[-0.5778,-0.8236]

最后的结果是使用基数为10的对数得到的。

票数 7
EN

Stack Overflow用户

发布于 2019-07-08 23:24:17

不仅在默认情况下,torch.log始终是自然日志。而torch.log10是10基日志。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/49236571

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档