首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >生成对抗网络tanh?

生成对抗网络tanh?
EN

Stack Overflow用户
提问于 2017-01-06 00:25:38
回答 2查看 8.8K关注 0票数 9

我想知道,为什么在我看到的大多数GAN模型(至少在MNIST中),激活函数(用于鉴别器和生成器)是tanh?ReLu不是更高效吗?(我总是为预测网络阅读这篇文章)

谢谢!

EN

回答 2

Stack Overflow用户

发布于 2017-03-21 00:32:53

来自DCGAN论文Radford et al. [https://arxiv.org/pdf/1511.06434.pdf]..。

“在生成器中使用了ReLU激活(奈尔和欣顿,2010),但输出层使用了Tanh函数。我们观察到,使用有界激活允许模型更快地学习,以达到饱和并覆盖训练分布的颜色空间。在鉴别器中,我们发现泄漏整流激活(Maas等人,2013) (Xu等人,2015)工作良好,特别是对于更高分辨率的建模。这与最初的GAN论文形成对比,该论文使用最大输出激活(Goodfellow et al.,2013)。”

这可能是因为tanh的对称性在这里是一个优势,因为网络应该以对称的方式处理较深的颜色和较浅的颜色。

票数 9
EN

Stack Overflow用户

发布于 2017-01-06 03:28:10

有时,它取决于您希望激活落入的范围。当你在ML文献中听到"gates“时,你可能会看到一个在0和1之间的sigmoid。在这种情况下,他们可能希望激活在-1和1之间,所以他们使用tanh。This page说要使用tanh,但他们没有给出解释。DCGAN使用ReLUs或泄漏ReLUs,但生成器的输出除外。这是有道理的--如果你嵌入的一半变成了零呢?在-1和1之间平滑变化的嵌入可能会更好。

我很乐意听到别人的意见,因为我不确定。

票数 5
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/41489907

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档