首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >tf.nn.relu对tf.keras.activations.relu

tf.nn.relu对tf.keras.activations.relu
EN

Stack Overflow用户
提问于 2019-02-19 07:46:33
回答 1查看 4.3K关注 0票数 5

我看到tf.nn.relutf.keras.activations.relu都只计算ReLU函数(没有其他完全连接的层或其他东西,如描述的这里),那么它们之间有什么区别呢?其中一个只是包裹另一个吗?

EN

回答 1

Stack Overflow用户

发布于 2019-02-19 08:25:53

  • tf.nn.relu:它来自TensorFlow库。它位于nn模块中。因此,它被用作神经网络中的一种操作。如果x是张量, Y= tf.nn.relu( X) 它用于创建自定义层和NN。如果将它与Keras一起使用,则在加载或保存模型或将模型转换为TF时可能会遇到一些问题。
  • tf.keras.activations.relu:它来自TensorFlow中包含的Keras库。它位于activations模块中,该模块还提供了另一个激活函数。它主要用于Keras ( tf.keras.layers )中的activation=参数: model.add( keras.layers.Dense( 25,activation=tf.keras.activations.relu )) 但是,它也可以用作上述部分中的示例。它更特定于Keras ( SequentialModel ),而不是原始的TensorFlow计算。

tf.nn.relu是特定于TensorFlow的,而tf.keras.activations.relu在Keras自己的库中有更多的用途。如果我创建一个只有TF的NN,我很可能使用tf.nn.relu,如果我要创建一个Keras模型,那么我将使用tf.keras.activations.relu

票数 11
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/54761088

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档