我想知道,为什么在我看到的大多数GAN模型(至少在MNIST中),激活函数(用于鉴别器和生成器)是tanh?ReLu不是更高效吗?(我总是为预测网络阅读这篇文章)
谢谢!
发布于 2017-03-21 00:32:53
来自DCGAN论文Radford et al. [https://arxiv.org/pdf/1511.06434.pdf]..。
“在生成器中使用了ReLU激活(奈尔和欣顿,2010),但输出层使用了Tanh函数。我们观察到,使用有界激活允许模型更快地学习,以达到饱和并覆盖训练分布的颜色空间。在鉴别器中,我们发现泄漏整流激活(Maas等人,2013) (Xu等人,2015)工作良好,特别是对于更高分辨率的建模。这与最初的GAN论文形成对比,该论文使用最大输出激活(Goodfellow et al.,2013)。”
这可能是因为tanh的对称性在这里是一个优势,因为网络应该以对称的方式处理较深的颜色和较浅的颜色。
https://stackoverflow.com/questions/41489907
复制相似问题