首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >训练前用乙状结肠,训练用ReLU?

训练前用乙状结肠,训练用ReLU?
EN

Data Science用户
提问于 2016-06-27 15:19:01
回答 1查看 723关注 0票数 2

使用RBM预先训练一个深网,如本例中的成果管理制,激活函数为sigmoid,使计算变得更加容易。

在使用sigmoid激活函数学习初始权重以切换到列车阶段的ReLU之后,有什么意义?

我想,在任何一个阶段(列车前或列车)和乙状结肠或ReLU在另一个阶段使用会引起很大的问题,但由于ReLU和乙状结肠是相似的小值,它还会使列车前阶段无用吗?

从使用乙状结肠激活函数的神经网络向结构相同但使用ReLU激活函数的神经网络传递多少知识,这个问题可能更为普遍。

EN

回答 1

Data Science用户

发布于 2017-09-17 19:46:53

既然RBM只有一层权重,那么为什么要在1层网中将乙状结肠改为ReLU呢?在这么浅的网中,梯度消失是不可能发生的。

你也可以训练高斯-伯努利或高斯-高斯RBM (更多的这里),它具有身份激活函数,它比乙状结肠更接近ReLU,如果你有实值数据,而不是二进制数据,那么更合理的是什么。然而,由于这种无约束的激活,这些类型的网络训练起来有点不稳定。

票数 1
EN
页面原文内容由Data Science提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://datascience.stackexchange.com/questions/12443

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档