首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏机器学习、深度学习

    目标检测中的尺度--An Analysis of Scale Invariance in Object Detection – SNIP

    An Analysis of Scale Invariance in Object Detection – SNIP Code will be made available at http://bit.ly 这种大尺度范围的变化导致目标检测需要 enormous and represents an extreme challenge to the scale invariance properties of

    2.1K60发布于 2018-01-03
  • 来自专栏JNing的专栏

    论文阅读: SNIP

    大大降低了前景分类任务的难度,从而“作弊式”地实现了Scale Invariance。 ---- [1] An Analysis of Scale Invariance in Object Detection - SNIP [2] CVPR18 Detection文章选介(下) [ 3] 目标检测论文阅读:An Analysis of Scale Invariance in Object Detection – SNIP [4] [CVPR2018笔记]An Analysis of Scale Invariance in Object Detection – SNIP [5] 目标检测中的尺度–An Analysis of Scale Invariance in Object Detection – SNIP [6] [CVPR2018] An Analysis of Scale Invariance in Object Detection – SNIP

    1.2K20发布于 2018-09-27
  • MaxPooling的作用

    maxpooling主要有两大作用 1. invariance(不变性),这种不变性包括translation(平移),rotation(旋转),scale(尺度) 2. 保留主要的特征同时减少参数(降维,效果类似PCA)和计算量,防止过拟合,提高模型泛化能力 (1) translation invariance: 这里举一个直观的例子(数字识别),假设有一个 (2) rotation invariance: 下图表示汉字“一”的识别,第一张相对于x轴有倾斜角,第二张是平行于x轴,两张图片相当于做了旋转,经过多次max pooling后具有相同的特征 (3) scale invariance: 下图表示数字“0”的识别,第一张的“0”比较大,第二张的“0”进行了较小,相当于作了缩放,同样地,经过多次max pooling后具有相同的特征 ?

    78120发布于 2018-07-05
  • MaxPooling的作用

    maxpooling主要有两大作用 1. invariance(不变性),这种不变性包括translation(平移),rotation(旋转),scale(尺度) 2. 保留主要的特征同时减少参数(降维,效果类似PCA)和计算量,防止过拟合,提高模型泛化能力 (1) translation invariance: 这里举一个直观的例子(数字识别),假设有一个 (2) rotation invariance: 下图表示汉字“一”的识别,第一张相对于x轴有倾斜角,第二张是平行于x轴,两张图片相当于做了旋转,经过多次max pooling后具有相同的特征 (3) scale invariance: 下图表示数字“0”的识别,第一张的“0”比较大,第二张的“0”进行了较小,相当于作了缩放,同样地,经过多次max pooling后具有相同的特征 ?

    95470发布于 2018-05-09
  • 来自专栏人工智能前沿讲习

    【论文推荐】了解《因果科学》必看的6篇论文(附打包下载地址)

    推荐理由:这篇可能是利用causal invariance来改善ERM会学到spurious correlation的问题这一条线中最出名的paper了。 虽然这篇paper在理论和实践中都被一些paper指出有诸多问题,但是确实由此开创了一系列与causal invariance相关的工作。 推荐理由:这篇paper是从causal invariance的角度来看out-of-domain generalization,并且巧妙的将causal invariance和muti-domain 这是一篇比较新的没有focus在representation learning上的从causal invariance角度思考问题的paper。

    32410编辑于 2022-02-24
  • 来自专栏半杯茶的小酒杯

    Deep Learning中的排列不变性和等变性

    1.Permutation Invariance and Equivariance Permutation Invariance Permutation Invariance是排列不变性,是指函数的输出与输入元素的顺序无关 举个例子,假设一个集合{1,2,3,4},{4,3,2,1}和{1,3,2,4}也是集合A的一种形式,满足Permutation Invariance的函数对这些顺序不同的输入应该保持相同的输出。

    2.3K40编辑于 2023-09-01
  • 来自专栏CreateAMind

    论文解读:主视觉大脑皮层的深度层级模型:机器视觉可以从中学到些什么?

    ., selectivity and invariance. TE区具备:size invariance ,cue i, position i,occlusion invariance 物体离的远近看到的不管大小都可以识别;看到部分即可识别(管中窥豹可见一斑);物体的姿势不同 two color axes red-green and blue-yellow, thereby sharpening the wavelength tuning and achieving some invariance beyond simple 2D-shape perception in several aspects: integration of different cues and modalities, invariance A particular case are face sensitive neurons that can show a rather large invariance to rotations in

    1.1K30发布于 2018-07-25
  • 来自专栏我爱计算机视觉

    目标检测框回归问题

    对框scale的invariance。 x、y的回归 x、y的回归方式可以分为两类,一类以YOLO为代表,一类以Faster R-CNN和RetinaNet为代表。 itself vs. a surrogate loss function, the optimal choice is the metric itself”,另一个是IoU loss对框的scale具有invariance 2、对框scale的invariance特性 框回归问题中,对框scale具有invariance是否一定是优点呢? 我想不尽然,因为不同scale的框之间可能存在不平衡,在这种条件下,对框scale具有invariance可能不一定是最好的,我们可能需要做一些reweight。

    95230发布于 2021-01-05
  • 来自专栏全栈程序员必看

    deeplab系列详解(简单实用年度总结)

    不变性可分为: 平移不变性:Translation Invariance 旋转/视角不变性:Ratation/Viewpoint Invariance 尺度不变性:Size Invariance 光照不变性 :Illumination Invariance CNN = 卷积 + 池化 图像的特征被平移了,那么在卷积的过程中,特征提取也相应的被平移了。

    1.8K40编辑于 2022-07-27
  • 来自专栏二猫の家

    【深度学习】CNN中pooling层的作用

    4、关于平移不变性的解释: 4.1. invariance(不变性),这种不变性包括translation(平移),rotation(旋转),scale(尺度) 4.2. 保留主要的特征同时减少参数(降维,效果类似PCA)和计算量,防止过拟合,提高模型泛化能力 (1) translation invariance:这里举一个直观的例子(数字识别),假设有一个16x16的图片 (2) rotation invariance:下图表示汉字“一”的识别,第一张相对于x轴有倾斜角,第二张是平行于x轴,两张图片相当于做了旋转,经过多次max pooling后具有相同的特征 (3) scale invariance: 下图表示数字“0”的识别,第一张的“0”比较大,第二张的“0”进行了较小,相当于作了缩放,同样地,经过多次max pooling后具有相同的特征

    1.3K10编辑于 2023-11-25
  • 来自专栏CreateAMind

    动物脑的好奇心和强化学习的好奇心

    novelty information across different states in the service of driving novelty-based learning. view invariance state invariance: One class of recent proposals for novelty-driven RL addressed the view and state invariance challenges by incorporating a method for computing similarity between images. in time between pairs of images, motivated by the observation that temporal continuity can capture invariance In contrast to explicit count-based proposals, pseudocount methods address the invariance problems using

    72120发布于 2019-03-06
  • 来自专栏机器学习炼丹术

    AI面试题之深入浅出卷积网络的平移不变性

    所以不变性有下面几种: 平移不变性:Translation Invariance 旋转不变性:Rotation Invariance 尺度不变性:scale Invariance 光照不变性:Illumination Invariance 在图像分类任务中,平移不变性就是图像中的目标不管被移动到哪个位置,模型给出的标签应该都是相同的。 参考链接:[1]https://zhangting2020.github.io/2018/05/30/Transform-Invariance/ [2]https://www.zhihu.com/question

    4.9K11发布于 2020-07-14
  • 来自专栏圆圆的算法笔记

    ICLR 2022 | Facebook AI提出解决表示学习坍塌问题新方法

    点关注,不迷路,定期更新干货算法笔记~ Facebook AI团队在ICLR 2022发表了一篇文章,针对表示学习中的坍塌问题,提出了VICREG方法,通过variance、invariance、covariance 论文标题:VICREG: VARIANCE-INVARIANCE-COVARIANCE REGULARIZATION FOR SELF-SUPERVISED LEARNING 下载地址:https:// 4 VICREG Facebook团队提出的VICREG是上述基于信息最大化表示学习方法的一个扩展,损失函数主要包括variance、invariance、covariance三个部分。 invariance部分即让正样本对的表示embedding距离尽可能小,是正常的表示学习loss。

    87220编辑于 2022-12-19
  • 来自专栏我还不懂对话

    【胶囊网络-CapsNet】李宏毅CapsNet课程笔记

    Discussion Invariance VS Equivariance Invariance: 不同的输入,保证输出不变,例如分类问题。 Equivariance:不同的输入,输出也不同。 而CapsNet,通过向量的模表示概率(Invariance),方向表示不同,具有Equivariance。

    96120发布于 2021-10-19
  • 来自专栏零域Blog

    「SF-PLF」8 StlcProp

    Type Safety Progress Canonical Forms (one for each type of value) Preservation Substituion Context Invariance free var 对于新的 Context 仍然是 type-preserving… 这里我们需要 the formal definition of free var as well. context invariance Context Invariance 上下文的一些「不变式」 PLT 的 Weaking 和 Exchanging 其实就对应了 Gamma 作为 partial_map 的 neq 和 permute 这里,我们直接进一步地证明 「term 的 well-typeness 在『free var 的值不变的 context 变化下』是 preserving 得」: Lemma context_invariance

    59720编辑于 2022-03-02
  • 来自专栏机器人网

    反向传播算法或将被抛弃, 深度学习需另辟途径?

    Hinton 认为,过去人们对 Pooling 的看法是能够带来 invariance 的效果,也就是当内容发生很小的变化的时候(以及一些平移旋转),CNN 仍然能够稳定识别对应内容。 但是按照 CNN 的 invariance 的想法完全不是这么做。 这样 CNN 能够做到对旋转的 invarience,并且是 “直觉上” 的 invariance,根本不需要像人那样去旋转图片,它直接就 “忽视” 了旋转,因为我们希望它对旋转 invariance。 CNN 同样强调对空间的 invariance,也就是对物体的平移之类的不敏感(物体不同的位置不影响它的识别)。 人脑做到的是 equivariance ,也就是能够检测到平移、选转等等各种差异,但是能够 “认识” 到他们在某些视觉问题场景下是相同的,某些场景下应该有所区别,而不是像 CNN 一样为了追求单一的识别率,用 invariance

    77750发布于 2018-04-24
  • 来自专栏AI研习社

    深度学习要另起炉灶,彻底抛弃反向传播?

    Hinton 认为,过去人们对 Pooling 的看法是能够带来 invariance 的效果,也就是当内容发生很小的变化的时候(以及一些平移旋转),CNN 仍然能够稳定识别对应内容。 但是按照 CNN 的 invariance 的想法完全不是这么做。如果你对训练神经网络有经验,你可能会想到我们在做图像预处理和数据拓增的时候,会把某些图片旋转一些角度,作为新的样本,给神经网络识别。 这样 CNN 能够做到对旋转的 invarience,并且是 “直觉上” 的 invariance,根本不需要像人那样去旋转图片,它直接就 “忽视” 了旋转,因为我们希望它对旋转 invariance。 CNN 同样强调对空间的 invariance,也就是对物体的平移之类的不敏感(物体不同的位置不影响它的识别)。 人脑做到的是 equivariance ,也就是能够检测到平移、选转等等各种差异,但是能够 “认识” 到他们在某些视觉问题场景下是相同的,某些场景下应该有所区别,而不是像 CNN 一样为了追求单一的识别率,用 invariance

    97360发布于 2018-03-19
  • 来自专栏杨丝儿的小站

    MOB LEC4 Image Feature Matching

    Scale invariance. descriptor should have the following characteristics: Repeatability: manifested as robustness and invariance

    35410编辑于 2022-11-10
  • 来自专栏CreateAMind

    TCN: Self-Supervised Learning from Multi-View Observation

    Our experiments demonstrate that such a representation even acquires some degree of invariance to object

    35530发布于 2018-07-24
  • 来自专栏机器之心

    学界 | CMU&FAIR ICCV论文:通过传递不变性实现自监督视觉表征学习

    论文:Transitive Invariance for Self-supervised Visual Representation Learning ? 大多数辅助任务最终将提供数据来学习特定种类的有助于识别的不变性(invariance)。

    840150发布于 2018-05-08
领券