卷积神经网络通常使用squared_sized核,如(3,3),(5,5)等。
使用非平方内核大小的缺点和优点是什么?指(3,7),(3,9)等。
发布于 2020-01-28 10:15:53
我想不出有什么坏处。这真的取决于你想要什么和你的数据是什么。
当使用平方大小内核时,使用该内核将该区域转换为conv输出中的一个点。因此,使用一个正方形,输出中的每个点都是从输入点的一组加权邻域(与水平点相同的垂直邻居数)中得到的。
但是,如果使用的是非方形内核大小,假设内核大小为3×9,则使用比垂直输入点多3倍的水平(反之亦然)来映射每个输入点。根据数据的性质,这可能简化您的培训过程,并提高准确性。(如果你试图检测到非常大的、瘦削的鳄鱼example^_^)。毕竟,这些都是我的观点,不是百分之百的科学事实。
发布于 2020-01-28 14:59:18
平方大小的内核背后的原因是,一般情况下,您不知道学习的特性会有什么方向。所以你不想限制网络。滤波器的最优形状是一个圆,因此它可以在给定半径的某个区域内学习任意方向的特征。因为这并不是真正可行的,因为实现的问题,正方形,它的次之最好的形状。
如果您知道,例如,所有学到的特性的比率为1x3 (高宽),则可以使用内核大小(如2x6 )。但你就是不知道。即使您说要检测/分类的对象看起来是这样的,它也不会转化为网络将学会识别它的特性。整体的优势是,你可以让网络学习的特点,海事组织,你应该尽量限制这一点。
但我不想让你气馁。深度学习是一种尝试和尝试的过程。所以试一试,自己看看。也许对于某种问题,它实际上表现得更好,谁知道呢。
发布于 2020-01-28 10:21:27
您可以使用您喜欢的任何大小的内核。内核不一定是正方形,特别是当您想要更多地关注特定方向上的过程时。实际上,图像中沿特定轴移动的平均值是一个矩形形状的简单滤波器。
https://stackoverflow.com/questions/59946176
复制相似问题