首页
学习
活动
专区
圈层
工具
发布

MLP conv层
EN

Data Science用户
提问于 2018-07-19 09:40:11
回答 2查看 1.8K关注 0票数 2

什么时候应该使用MLP conv层而不是普通的conv层?有共识吗?还是两者都试一试,看看哪一种表现更好,这是一种规范吗?我希望能更好地理解两者之间的区别。另外,哪个深度学习库支持MLP conv层?本文中使用的是网络中网络

EN

回答 2

Data Science用户

回答已采纳

发布于 2020-11-27 14:38:09

现在通常用来指"MLP conv层“的术语是1x1卷积。

1x1卷积是普通卷积,但它们的核大小为1,即它们只作用于一个位置(即图像为一个像素,离散数据为一个标记)。这样,1x1卷积就相当于按位置施加密集层。网络文件中使用的"MLP卷积层“一词就是对这一事实的参考。

普通卷积利用空间信息,因此可以检测局部模式(空间局部性归纳偏差),而1x1卷积不存在,因为它们的作用窗口是一个单一位置。它们只是用来改变表示的维数,特别是改变图像中通道的数目,或者改变离散数据中的嵌入维数。例如,如果在二维卷积网络的某个点有宽度w、高度hc通道的张量,则可以使用1x1卷积得到宽度w、高度hc'通道的张量,其中c \neq c'

票数 2
EN

Data Science用户

发布于 2019-07-04 18:02:18

在正常卷积层中,采用ReLU激活函数。ReLU是固定的,不能单独训练。MLP Conv层是卷积运算和多层感知器网络的结合。如果在卷积后使用MLP,则可以学习更复杂的函数(将输入映射到输出)。

它也增加了您的模型的容量,并可以适应更多的数据。

为了比较,你得自己试试。本文本身也作了一些比较。

还有另一篇论文也做了类似的事情。检查:学习激活函数对深层神经网络的改进

您可以在深入学习框架中创建自己的MLP conv层,如Tensorflow和Py手电筒。可能有人也已经造好了。

票数 0
EN
页面原文内容由Data Science提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://datascience.stackexchange.com/questions/35720

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档