首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >"relu“在tf.nn.relu中代表什么?

"relu“在tf.nn.relu中代表什么?
EN

Stack Overflow用户
提问于 2017-04-20 03:15:30
回答 2查看 16K关注 0票数 11

在它的API documentation中,它说“计算校正后的线性”。

它是Re(ctified) L(线性)...那么你是什么呢?

EN

回答 2

Stack Overflow用户

回答已采纳

发布于 2017-04-20 03:38:47

Re(ctified) L(线性) (U)nit

通常,神经网络中的一层具有一些输入,例如向量,并将其乘以权重矩阵,即再次生成向量。

然后将结果中的每个值(通常是浮点数)视为一个输出。然而,如今神经网络中的大多数层都涉及非线性,因此一个附加功能,您可能会说,增加了这些输出值的复杂性。很长一段时间以来,这些都是sigmoids和tanh。

但最近人们使用一个函数,如果输入为负,则结果为0,如果输入为0或正,则结果为输入本身。这个特定的附加功能(或者更好的“激活功能”)被称为relu。

票数 29
EN

Stack Overflow用户

发布于 2017-06-15 06:05:51

除了弗里塞尔的回答之外,我还想补充一下Relu的两个重要特性。

1.它不可微。

Relu的图表:它是尖状的,而不是曲线状的。

它被定义为f(x) = max(0,x),因此它是不可微的。

2. ReLU的导数非常简单!比sigmoid更简单,它是x(1-x)

代码语言:javascript
复制
The derivative of ReLU:
 1 if x > 0
 0 otherwise 

这是最简单的非线性函数,我们主要在隐藏层上使用。想想看反向传播是多么容易!

票数 9
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/43504248

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档