首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏机器学习、深度学习

    语义分割--Loss Max-Pooling for Semantic Image Segmentation

    Loss Max-Pooling for Semantic Image Segmentation CVPR2017 https://arxiv.org/abs/1704.02966 本文采用偏数学语言的角度来描述语义分割样本类别分布不均匀问题 ,提出一个方法 Pixel-Loss Max-Pooling 本文主要解决什么问题了?

    97720发布于 2019-05-26
  • 来自专栏nginx遇上redis

    卷积神经网络之池化

    保持某种不变性,包括translation(平移),rotation(旋转),scale(尺度),常用的有mean-pooling和max-pooling。 四个值分别Backword max-pooling(最大值) 即对一小块区域取最大值,假设pooling的窗大小是2x2, 1.forward:就是在前面卷积层的输出的不重叠地进行2x2的取最大值降采样 ,就得到max-pooling的值。 不重叠的4个2x2区域分别max-pooling 2.backward:在max-pooling前向传播时,只取最大值,其他值无作用。

    62520发布于 2019-10-15
  • 来自专栏Pytorch实践

    Pytorch实现CNN时间序列预测

    -1 对序列做卷积,就是找到一个窗口大小为kernel_size的序列,与原序列做卷积(上述卷积公式)得到新的序列表达,一般卷积网络中还包括池化操作,就是对卷积提取的特征进行筛选得到最有用的特征,采用max-pooling 本文使用两层卷积加两次max-pooling的卷积网络,具体模型如下: ? C1表示卷积操作1 S2表示max-pooling C3表示卷积操作2 S4表示max-pooling 最后再接一层全连接层输出 使用Pytorch构造网络模型如下: ?

    5.4K82发布于 2018-03-26
  • 来自专栏小鹏的专栏

    为什么很多做人脸的Paper会最后加入一个Local Connected Conv?

    经过3D对齐以后,形成的图像都是152×152的图像,输入到上述网络结构中,该结构的参数如下: Conv:32个11×11×3的卷积核 max-pooling: 3×3, stride=2 Conv: 其中Max-pooling层使得卷积的输出对微小的偏移情况更加鲁棒。但没有用太多的Max-pooling层,因为太多的Max-pooling层会使得网络损失图像信息。

    1.7K50发布于 2018-01-09
  • 来自专栏深度学习思考者

    卷积神经网络中图像池化操作全解析

    一般来说,mean-pooling能减小第一种误差,更多的保留图像的背景信息,max-pooling能减小第二种误差,更多的保留纹理信息。 在平均意义上,与mean-pooling近似,在局部意义上,则服从max-pooling的准则。 ? 下面给出matlab中max-pooling的代码实现: function [outputMap, outputSize] = max_pooling(inputMap, inputSize, ==================================================== % INPUTS: % inputMap - input map of the max-pooling the stride size between successive pooling squares. % OUTPUT: % outputMap - output map of the max-pooling

    2K60发布于 2018-01-03
  • 来自专栏小小挖掘机

    推荐系统遇上深度学习(四十七)-TEM:基于树模型构建可解释性推荐系统

    一种是avg-pooling,一种是max-pooling,我们分别记作TEM-avg和TEM-max。这两种方式对结果的解释是不同的。 embedding,即wuil * vl,共有14个交叉特征,此时选择重要程度最高的特征,就不能单单看权重wuil了,还要看其对max-pooling后结果的贡献。 感觉TEM-max可以通过交叉特征对max-pooling结果的贡献来确定其重要性,因为最后再乘上 rT,这个并不影响max-pooling结果的每一维来自于哪一个交叉特征。 因为 rT * max-pooling(wuil * vl) = sum(max-pooling(wuil * multiply(r ,vl)) 可能我说的比较晦涩,通过下面可以理解下,假设我们把 r放在 max-pooling之前,先和vl对位相乘,并不改变最终结果的每一维来自哪一个交叉特征对应的embedding: 而两边最终结果也验证了我们公式的正确性。

    1.9K20发布于 2019-06-04
  • 来自专栏人工智能头条

    李理:详解卷积神经网络

    更为具体的一个例子,一种非常常见的池化操作叫做Max-pooling。在Max-Pooling中,这个神经元选择2×2区域里激活值最大的值,如下图所示: ? 我们会对每一个特征映射进行max-pooling操作。因此,如果一个卷积层有3个特征映射,那么卷积加max-pooling后就如下图所示: ? 而且一个很大的好处是池化可以减少特征的个数【2×2的max-pooling让特征的大小变为原来的1/4】,因此减少了之后层的参数个数。 Max-pooling不是唯一的池化方法。 【Max-Pooling是用的最多的,甚至也有人认为Pooling并没有什么卵用。 我们使用同样的5×5的局部感知域和2×2的max-pooling。代码如下: ?

    65070发布于 2018-06-06
  • 来自专栏深度学习自然语言处理

    【nlp入门了解】自然语言处理—关系抽取

    CNN作为特征提取器在各个领域中都非常常用且成功,在关系制取过程中,作者认为在CNN之后的max-pooling层对整个卷积层的输出进行操作,不够精细,而且对关系与实体的结构提取的效率不高,因此,提出max-pooling 层不再对整个卷积层输出进行处理,而是把每个卷积核输出的结果分成三段,分别进行max-pooling操作。 PCNN一经提出,PCNN的分切max-pooling思想就成为后续关系抽取模型的基本要素之一,对关系抽取的意义重大。 同样的在使用PCNN后,不是对bag中所有的示例进行attention操作,而是转而采取一种称为cross-sentence max-pooling 的方式: ? 而这种推理则由cross-sentence max-pooling 来完成。不止于此,作者发现在常用的数据集中,18%以上的数据有重叠的关系,即一个实体对有多个关系。

    2K11发布于 2020-02-17
  • 来自专栏深度应用

    [深度概念]·深度学习术语表(一)

    Average-Pooling 池化操作时在卷积神经网络中经常采用过的一个基本操作,一般在卷积层后面都会接一个池化操作,但是近些年比较主流的ImageNet上的分类算法模型都是使用的max-pooling ,很少使用average-pooling,通常来讲,max-pooling的效果更好,虽然max-pooling和average-pooling都对数据做了下采样,但是max-pooling感觉更像是做了特征选择 一般来说,average-pooling能减小第一种误差,更多的保留图像的背景信息,max-pooling能减小第二种误差,更多的保留纹理信息。

    95020发布于 2019-06-27
  • 来自专栏白话NLP

    【白话NLP】——为什么需要mask

    1.2 max-pooling的问题 [在这里插入图片描述] 如上图所示,矩阵b=[-1, -3, -9, -11, -7, -2, -8],pad之后的矩阵mean\_b=[-1, -3, -9, - 分别对其进行max-pooling: max\_b = -1 max\_pad\_b=0 对比max_a和max_pad_a发现:pad操作影响max-pooling

    1.5K50发布于 2019-12-09
  • 来自专栏GiantPandaCV

    《SegNet》论文阅读

    具体来讲,解码器利用在max-pooling过程中计算出的池化indices,计算对应的编码器的非线性上采样。这个过程就省去了上采样学习的过程。 之后用一个窗口尺寸为2,步长为2的Max-Pooling,得到一个下采样结果。用Max pooling的原因是实现输入图像上小空间位移的平移不变性。 这种方式只保存max-pooling indices,也就是每一个窗口内的最大特征值的位置。 解码器用之前记录的max-pooling indices上采样输入的特征图。这个过程生成的特征图是稀疏的。解码技巧如下图所示: ? 解码器的每个反卷积层后面也跟了bn层。 没有max-pooling和sub-sampling的变体消耗的内存更大、收敛所需时间更长,且表现不好。

    1.2K10发布于 2019-12-04
  • 来自专栏ATYUN订阅号

    深度学习词汇表(一)

    Average-Pooling 池化操作时在卷积神经网络中经常采用过的一个基本操作,一般在卷积层后面都会接一个池化操作,但是近些年比较主流的ImageNet上的分类算法模型都是使用的max-pooling ,很少使用average-pooling,通常来讲,max-pooling的效果更好,虽然max-pooling和average-pooling都对数据做了下采样,但是max-pooling感觉更像是做了特征选择 一般来说,average-pooling能减小第一种误差,更多的保留图像的背景信息,max-pooling能减小第二种误差,更多的保留纹理信息。

    1.1K20发布于 2019-05-13
  • 来自专栏null的专栏

    利用Theano理解深度学习——Convolutional Neural Networks

    3、池化(pooling) 在CNN中,另一个比较重要的概念是池化,在这里使用的是最大池化max-pooling,这是非线性下采样的一种形式。 max-pooling将输入图像划分成为一系列的不重叠的正方形区域,然后对于每一个子区域,输出其中的最大值。 对于机器视觉而言,max-pooling的策略是非常有效的,主要有两个原因: 降低计算量。 max-pooling提供了一种变换不变性的形式。 假设在卷积层的后面串联一个max-pooling层,对于输入图像中的每一个像素点的位置,与其邻接的有8个方向可以变换,如果max-pooling采用的是2×2大小的正方形区域,在这88种可能的结构中,只要有 因为在max-pooling层对位置信息提供了额外的鲁棒性,max-pooling的方法是在中间表示的过程中降低维度的一种极其有效的方法。

    91690发布于 2018-03-20
  • 来自专栏DeepHub IMBA

    2D和3D卷积网络应用于视频数据比较

    改进后的VGG网络(mVGG)整体块结构与原VGG网络相同,我们用Max-Pooling层分隔了5个卷积层块,每个块后的feature map在两个图像维上都减小了2倍。 我们的三维卷积神经网络在我们的mVGG网络的基础上,除了二维卷积层外,用三维卷积层代替,二维Max-Pooling层用3D Max-Pooling层代替。 三维卷积层利用内核的大小(3,3,3),和3 d Max-Pooling层使用池化大小(1、2、2)和(1、2、2)。因此,池化并时间维度进行池化,所以每一层的输出总是保持时间维度的128点。

    1.1K30发布于 2021-04-16
  • 来自专栏深度学习那些事儿

    深度学习为什么需要那么多的数据?

    比如在我们检测一个物体的时候,神经网络的activation层在这个物体的边缘处发生了比较明显的变化,当这个物体稍微旋转一下,物体的边缘稍稍移动时,由于max-pooling的缘故,这个物体的边缘依然会刺激到我们的 activation层,当然,max-pooling的核大小是很有限的,对于一般的图像旋转,平移,max-pooling就无法发挥作用了。 batch_size) def test(self, test_x, test_y): return self.model.evaluate(test_x, test_y) 设计的模型中有max-pooling 也就是说,max-pooling的作用其实是有限的,我们不应该光靠这个“特性”来偷懒,然后减少数据的收集。

    1K30发布于 2018-08-01
  • 来自专栏share ai happiness

    SPERT:一种从文本中抽取关系方法

    表示span不包含实体); span使用BERT来做嵌入操作(就是将其转化为特征向量); 定义一个fusion function(融合函数) :来融合嵌入后的向量,这篇论文就是选用了一个比较好的融合函数max-pooling (span过滤) 过滤掉被分类到none类别的span和长度超过10的span(太长的不可能是实体) relation classification(关系分类) 在两个相邻的实体之间,通过BERT和max-pooling

    1.8K30发布于 2021-07-23
  • 来自专栏阿泽的学习笔记

    【GNN】JK-Net:深层 GNN 架构

    这种方法适用于较规则的小型图,并且一定概率上通过(Linear 层的)权重共享来减少过拟合; Max-pooling:为每个节点进行基于 element-wise 的 max-pooling 操作。 max-pooling 是自适应的,其优点在于不会引入额外的参数; LSTM-attention:Attention 机制是一个有效的可以学习节点信息的方式。 下图展示了利用 Max-pooling 聚合的 6 层 JK-Net,不同子图结构的可视化展示: ?

    2.9K20发布于 2020-07-21
  • 来自专栏AI异构

    caffe详解之池化层

    sort_pool2d sort_pool2d的提出旨在尽量多的解决max-pooling上面提到的问题,具体实现方式如下: 设池化之前的层的输出为张量 T,大小为 [B, H, W, C]。 其实sort_pool2d是max-pooling的一个扩展,假设pool_range=1对应的便是max-pooling

    1.1K20发布于 2020-07-29
  • 来自专栏AIUAI

    论文阅读理解 - Learning Feature Pyramids for Human Pose Estimation

    虚线梯形表示跳过下采样和上采样. 2.1 生成输入特征的金字塔 DCNNs一般应用 max-pooling 和 average-pooling 来降低 feature maps 的分辨率,编码其平移不变性 因此,这里采用 fractional max-pooling 来逼近传统图像金字塔的平滑和下采样处理,以得到不同分辨率 feature maps. Pyramid 结构的变形: 如 Figure 3(a-b),采用 max-pooling,convolution 和 upsampling 学习特征金字塔; 如 Figure 3(c),PRM-D

    1.2K70发布于 2019-02-18
  • 来自专栏null的专栏

    利用Theano理解深度学习——Convolutional Neural Networks

    3、池化(pooling) 在CNN中,另一个比较重要的概念是池化,在这里使用的是最大池化max-pooling,这是非线性下采样的一种形式。 max-pooling将输入图像划分成为一系列的不重叠的正方形区域,然后对于每一个子区域,输出其中的最大值。 对于机器视觉而言,max-pooling的策略是非常有效的,主要有两个原因: 降低计算量。 max-pooling提供了一种变换不变性的形式。 假设在卷积层的后面串联一个max-pooling层,对于输入图像中的每一个像素点的位置,与其邻接的有88个方向可以变换,如果max-pooling采用的是2×22\times 2大小的正方形区域,在这88 因为在max-pooling层对位置信息提供了额外的鲁棒性,max-pooling的方法是在中间表示的过程中降低维度的一种极其有效的方法。

    52420发布于 2019-02-13
领券