首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >为什么torch.functional.sigmoid和torch.nn.functional.relu不像torch.nn.functional.tanh那样被弃用?

为什么torch.functional.sigmoid和torch.nn.functional.relu不像torch.nn.functional.tanh那样被弃用?
EN

Stack Overflow用户
提问于 2019-06-23 19:39:09
回答 1查看 2.8K关注 0票数 1

现在,当torch.autograd.Variabletorch.tensor合并并过时时,为什么他们要弃用torch.nn.functional中的一些函数,而不是其他函数?也就是说,不推荐使用tanh,但不建议使用sigmoidrelu

代码语言:javascript
复制
>>> torch.__version__
'1.1.0'
>>> u
tensor(2., grad_fn=<MeanBackward0>)
>>> torch.nn.functional.tanh(u)
C:\Users\mlearning\AppData\Local\Continuum\anaconda3\lib\site-packages\torch\nn\functional.py:1374: UserWarning: nn.functional.tanh is deprecated. Use torch.tanh instead.
  warnings.warn("nn.functional.tanh is deprecated. Use torch.tanh instead.")
tensor(0.9640, grad_fn=<TanhBackward>)   
>>> torch.nn.functional.sigmoid(u)
tensor(0.8808, grad_fn=<SigmoidBackward>)    
>>> torch.nn.functional.relu(u)
tensor(2., grad_fn=<ReluBackward0>)

torch.nn.functional.relutorch.relu之间有什么区别吗,或者我可以互换使用它们?

EN

回答 1

Stack Overflow用户

发布于 2019-06-24 01:01:57

您可以查看this thread,其中一位主要的PyTorch设计者(实际上是创建者)设置了该指令。

你也可以检查一下背后的原因。此外,您也可以为其他两个函数提出相同的建议。

另一个也应该被弃用。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/56723486

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档