卷积神经网络中的反卷积或反向卷积是什么意思?
我理解卷积,如果我们考虑一个3x3的窗口W和一个相同大小的核k,那么卷积W*K的结果将是一个值。这里的k是一个3x3元素的矩阵。
在我的理解中,反卷积试图对特征地图进行上采样,以获得更大的地图。它是否使用用于获得特征图的相同卷积矩阵?如果不是,如何计算反向传播的梯度?一个详细的解释将非常有用。
https://stackoverflow.com/questions/38268102
相似问题