腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(9999+)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
3
回答
python中具有
ReLU
函数的
ReLU
我声明了
ReLU
函数如下: return (x if x > 0 else 0) ValueError:包含多个元素的数组的真值是不明确的使用a.any()或a.all() def
relu
_np(x):为什么这个函数(
relu
================================ 使用的
浏览 1
修改于2022-01-26
得票数 2
回答已采纳
1
回答
ReLU
导数
我有两个问题,如下所示,for t in range(500): h = x.mm(w1) y_pred = h_
relu
.mm(w2) # Compute
浏览 7
修改于2018-09-23
得票数 0
1
回答
tf.nn.
relu
和tf.contrib.layers.
relu
?
我在这里看到这个"tf.nn.
relu
“文档:后者似乎不是以类似API的方式来描述的,而只是在使用中。 为什么会这样呢?
浏览 4
提问于2017-03-13
得票数 3
回答已采纳
2
回答
"
relu
“在tf.nn.
relu
中代表什么?
在它的中,它说“计算校正后的线性”。
浏览 1
提问于2017-04-20
得票数 11
回答已采纳
1
回答
RELU
与池
如果任何地方都是负的,那么
RELU
意味着将像素值更改为0,然后如果我们应用最大池,那么
RELU
的用途是什么,因为在这一步中,我们选择最大值,所以无论是负值还是零,如果有任何正数必须大于0或负数。
浏览 0
修改于2021-02-16
得票数 6
1
回答
tf.nn.
relu
对tf.keras.activations.
relu
我看到和都只计算
ReLU
函数(没有其他完全连接的层或其他东西,如描述的),那么它们之间有什么区别呢?其中一个只是包裹另一个吗?
浏览 4
提问于2019-02-19
得票数 5
1
回答
死漏
ReLU
我正试图训练一个深层次的神经网络,但我有一个垂死的
ReLU
问题。我正在使用leaky,但仍然有相同的问题。漏水不是不应该有这样的问题吗?
浏览 0
修改于2020-11-26
得票数 2
2
回答
退出与
relu
激活
我正在尝试实现一个在tensorflow中辍学的神经网络。从文档中看:"Dropout是在训练期间,在每次更新时将输入单元的分数率随机设置为0,这有助于防止过度拟合。保持不变的单位是1/ (1 -速率),因此它们的总和在训练时间和推理时间不变。“现在,如果一个人使用的是围绕着0的tanh激活呢?上述推理不再
浏览 0
修改于2018-04-04
得票数 2
回答已采纳
1
回答
实现z_
relu
我试图实现zReLU提出的“关于复杂的价值卷积神经网络”,从尼坦古伯曼(2016)。def zrelu(z: Tensor) -> Tensor: return tf.keras.backend.switch(0 <= angle, tf.ke
浏览 5
提问于2021-08-28
得票数 0
回答已采纳
2
回答
ReLu
不工作吗?
我用tensorflow编写了一个以
relu
作为激活函数的卷积网络,但是它并不是学习(损失对于标准数据集和训练数据集都是常数)。对于不同的激活功能,一切都按其应有的方式工作。tf.layers.dense(current, 50, activation=self.last_activation) self.activiation设置为tf.nn.
relu
我将非常感谢帮助使这个神经网络与
ReLu
一起工作。编辑:泄漏的
ReLu
也有同样的问题x =
浏览 2
修改于2018-06-13
得票数 1
回答已采纳
3
回答
ReLU
素数与NumPy阵列
我想将多维数组传递到
relu
prime函数中。使用a.any()或a.all() 我在普通的
relu
函数中遇到了这个问题,而不是使用python函数max(),我使用了np.max(),它起了作用。但有了
relu
质数,两者都不起作用。
浏览 5
修改于2017-07-10
得票数 5
回答已采纳
1
回答
带
ReLU
导数的NumPy
import numpy as np return np.maximum(0,z) z[z>0]=1 return z y=
relu
(x)print("y = {}".format(y)) print("z = {}"为什么我的d_
relu
函数会影响y变量?
浏览 0
修改于2018-05-02
得票数 3
回答已采纳
2
回答
ReLU
函数如何导致收敛?
但是,在
ReLU
函数的激活中,梯度将是恒定的,并且不会随着输入的变化而改变。 我不清楚这将如何最终导致趋同。如果你能用数学推导来解释这一点,我将不胜感激。谢谢
浏览 0
修改于2021-07-23
得票数 1
2
回答
Relu
激活和反向传播
我的问题与
relu
激活功能的实现有关。我有以下用于应用激活函数的函数。第一个是我在初始运行中使用的,第二个是用于
relu
激活的。def sigmoid(self, a): return o return np.maximum(0, a) return 1. * (x > 0) 要实现
relu
激活功能,我是否需要在正向阶
浏览 35
修改于2021-03-24
得票数 1
0
回答
导入
relu
激活时出错
model = Sequential() model.add(Activation('
relu
'))model.add(Activation('
relu
')) model.a
浏览 17
提问于2017-12-01
得票数 2
回答已采纳
1
回答
神经网络:神秘
ReLu
tf.layers.dense(dropout1, units=classes, kernel_regularizer=reg,但随后我注意到,我将activation=tf.nn.
relu
放入最后的密集层(logits),这显然是一个bug:没有必要在softmax之前放弃负值,因为它们表明类的概率很低。最终的
ReLu
怎么能使一个模型如此优越呢?尤其是如果这个
ReLu
是个bug呢?
浏览 0
提问于2018-02-26
得票数 4
回答已采纳
1
回答
将
ReLU
内部设置为“False”
下面我编写了一些代码,它接受一个预先训练过的模型作为参数(vgg、resnet、densenet等),并以
ReLU
状态返回模型为'False‘。它是在测试了许多不同的特定架构之后编写的。def
ReLU
_inplace_to_False (model): for module in model._modules.values(): module.inplace = Falsetry: f
浏览 4
修改于2022-10-19
得票数 0
回答已采纳
1
回答
ReLU
与LeakyRelu的实现差异
我知道这些激活的定义不同,但是在读取时,它以参数alpha作为输入,0作为默认值,并说 重力线(x,alpha=0.0,max_value=None)校正线性单位。x:输入张量。我应该如何导入
relu
来用alpha实例化它呢?LeakyReLU..model.add(LeakyReLU(alpha=.001)) # using
Relu
LeakyRelu 注意,当使用LeakyReLU时,我会得
浏览 0
提问于2018-05-29
得票数 3
回答已采纳
2
回答
AttributeError:'
ReLU
‘对象没有属性'dim’
32, 32) x = x.flatten() x = torch.nn.
ReLU
(self.fc2(x)) 在测试代码时,使用以下命令得到了一个错误ipython-input-94-7c6c59da67f9> in forward(self, x) 27
浏览 8
提问于2021-09-28
得票数 1
回答已采纳
2
回答
使用lambda的
relu
激活函数
嗨,我想在python中实现一个lambda函数,它给我返回x如果x> 1和0 (
relu
):p = [-1,0,2,4,-3,1] 请注意,我希望将lambda的值传递给一个函数
浏览 1
修改于2019-07-05
得票数 1
回答已采纳
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券