我正在读这篇研究论文用于语义分割的全卷积网络,下面是引用这篇论文的文章
这些网络的完全连接层具有fi的维度,并丢弃空间坐标。然而,,这些完全连接的层也可以被看作是具有覆盖其整个输入区域的内核的卷积。
我不明白大胆的部分,但在互联网上做了一些研究后,我得出结论:如果我删除最后一层(即完全连接的层),然后用三个1x1内核将最后一层(即删除完全连接层之前的第二层)转到最后一层,我将做与粗体部分说的相同的事情。,我说对了吗?
为什么有三个1x1内核?
因为在纸上他们是从原始输入在rgb中创建一个热图,rgb意味着三个通道,但是卷积网络(没有完全连接的层)的结果是有多个通道(高维),因此有三个1x1核的卷积使它成为rbg图像。纸上图像
发布于 2021-03-25 14:45:56
假设在最后一层有一个200X200矩阵。然后,如果你要完全连接层,你将把200X200矩阵转换成一个一维数组。这意味着一个大小为40000的数组。这就是扔掉空间坐标的意思。如果您正在应用1x1内核,同样的事情也会发生。你将得到一个类似的没有变化的像素值。
https://stackoverflow.com/questions/52196940
复制相似问题