首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >tf.nn.relu和tf.contrib.layers.relu?

tf.nn.relu和tf.contrib.layers.relu?
EN

Stack Overflow用户
提问于 2017-03-13 21:03:42
回答 1查看 3.5K关注 0票数 3

我在这里看到这个"tf.nn.relu“文档:docs/python/tf/nn/relu

但是,我也在"model_fn":https://www.tensorflow.org/extend/estimators中看到了这个页面中的model_fn用法。

后者似乎不是以类似API的方式来描述的,而只是在使用中。

为什么会这样呢?这些文件过时了吗?为什么有两个-一个旧的,不再支持/将被移除?

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2017-03-13 21:50:44

它们不是一回事。

后者不是一个激活函数,而是一个fully_connected ,它的激活函数预设为nn.relu

代码语言:javascript
复制
relu = functools.partial(fully_connected, activation_fn=nn.relu)
# ^                                                     |<   >|
# |_ tf.contrib.layers.relu                     tf.nn.relu_|

如果您阅读了contrib.layers的文档,您会发现:

设置默认激活函数的fully_connected别名是可用的:relurelu6linear

总之,tf.contrib.layers.relu是具有relu激活的fully_connected层的别名,而tf.nn.relu是REctified线性单元激活函数本身。

票数 5
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/42773379

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档