问题是:卷积神经网络结构是一个连续的函数吗?所谓卷积,我指的是只由卷积层构成的。凭直觉,我会说是的,因为据我所知,卷积的运算是连续的,但我有遗漏什么吗?另外,有没有人知道转置卷积也是这样?
发布于 2021-12-13 13:40:05
如果函数是可微的,则函数是连续的;反之亦然,这是一种数学性质。
现在,我们知道CNN是可微的,这就是为什么反向传播有效。因此,它们是连续函数(实际上,每个可微的神经网络都是连续的)。
https://stackoverflow.com/questions/69982333
复制相似问题