LeakyReLU函数中的负斜率指什么?
“负斜率”一词在TensorFlow和Pytorch的文档中都使用,但它似乎并没有指向现实。
正输入和负输入的LeakyReLU函数的斜率通常是非负的。。
Pytorch和TensorFlow文档提供了设置负斜率的示例,它们都使用了一个正值。TensorFlow显式地强制非负值.(见下文)
他们是错了还是我漏掉了什么?
CLASStorch.nn.LeakyReLU(negative_slope=0.01, inplace=False)Argsα浮动>= 0负斜率系数默认为0.3。
发布于 2021-08-21 17:04:42
在这种情况下,negative_slope意味着漏出的斜率的负一半。它并不是描述一个必然是负面的斜坡。
在命名kwargs时,使用简洁的术语是正常的,这里的“负斜率”和“正斜率”是指跨越负-∞,0和正(0,∞)域的正(0,∞)区域的线性样条的斜率。
https://stackoverflow.com/questions/68867228
复制相似问题