我是一个深度学习的初学者。对于卷积网络,例如lenet-5,在C1层中有6个特征映射。每个特征映射都与一个唯一的卷积核(5x5矩阵)相关联。
同一图层中的任意两个特征地图之间有什么不同?对于像MNIST (没有RGB)这样的黑白图像数据集,人们仍然使用6个特征映射。
我猜,最初,这6个卷积核是随机生成的5x5矩阵。因此,当相同的输入图像被投影到不同的特征映射时,特征映射的输出将不同。这是主要的动机,对吧?
发布于 2016-01-22 21:48:33
卷积层中的每个滤波器都从输入中提取特定的特征。一个过滤器可能对水平边缘敏感,而另一个过滤器对垂直边缘敏感。第三个滤波器可能对三角形敏感。您希望功能映射彼此尽可能地不同,以避免冗余。避免冗余可以提高网络的容量,以适应尽可能多的数据变化。随机初始化可防止学习重复的过滤器。
为什么选择6个功能图?这是尝试其他数量的过滤器的结果。请记住,增加过滤器的数量会导致更高的计算开销和可能的过度拟合(记住训练数据,但不擅长正确地对新图像进行分类)。对6的另一种直觉是,像素没有太大的变化,你最终会在后续的层中提取更复杂的特征。C1的6个特征地图最终在MNIST数据集上工作得很好。
https://stackoverflow.com/questions/34912461
复制相似问题