首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >PELU激活:它是如何工作的,以及如何实现?

PELU激活:它是如何工作的,以及如何实现?
EN

Data Science用户
提问于 2020-01-09 10:14:35
回答 1查看 260关注 0票数 0

我在文献中遇到了PELU (参数指数线性单位),但我无法找到它的实际应用。

此外,我还有一些关于它是如何工作的问题:

  • 它的参数是学习的,还是它们是超参数?
  • TensorFlow实现是否需要Keras自定义层?
  • 原纸中,它仅适用于卷积模型。您能分享到计算机视觉之外的应用程序的链接吗?
  • 撇开计算负担不谈,它的性能是否被证明(除了原始论文之外)优于ReLU家族中更经典的激活?
EN

回答 1

Data Science用户

发布于 2020-01-09 10:55:14

我没有自己使用PELU激活函数,所以我不知道它的性能效益,但可以说

  • a、b和c看起来仅仅是超参数。
  • 它可以在tensorflow 2.0中直接实现为tf.cond(h,lambda:c*h,lambda:a(tf.exp(h/b)-1))
票数 1
EN
页面原文内容由Data Science提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://datascience.stackexchange.com/questions/66179

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档