首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏量子位

    不看全图看局部,CNN性能竟然更强了

    实验证据 研究人员设计了这样一个实验: 他们在CIFAR-10、CIFAR-100、STL-10、Tiny-ImageNet-200以及Imagenet-1K等数据集上训练ResNet。 要知道,被喂了碎片的CNN模型,看到的图像甚至可能跟标签显示的物体毫无关系,只是原图中背景的部分…… 在STL-10、Tiny-Imagenet-200等数据集上,研究人员也得到了类似的结果。 就像这样: 这些图像来自于STL-10数据集。热图显示,对于CNN而言,飞机图像中最能“刺激”到模型的,不是飞机本身,而是天空。 同样,在汽车图像中,车轮才是CNN用来识别图像的主要属性。

    40220编辑于 2022-06-08
  • 来自专栏贾志刚-OpenCV学堂

    不看全图看局部,CNN性能竟然更强了

    实验证据 研究人员设计了这样一个实验: 他们在CIFAR-10、CIFAR-100、STL-10、Tiny-ImageNet-200以及Imagenet-1K等数据集上训练ResNet。 要知道,被喂了碎片的CNN模型,看到的图像甚至可能跟标签显示的物体毫无关系,只是原图中背景的部分…… 在STL-10、Tiny-Imagenet-200等数据集上,研究人员也得到了类似的结果。 就像这样: 这些图像来自于STL-10数据集。热图显示,对于CNN而言,飞机图像中最能“刺激”到模型的,不是飞机本身,而是天空。 同样,在汽车图像中,车轮才是CNN用来识别图像的主要属性。

    41410编辑于 2022-06-09
  • 来自专栏新智元

    华人团队打造:AutoML + GAN = AutoGAN!AI设计GAN模型比人类更好

    此外,研究人员还发现,在CIFAR-10上发现的体系结构甚至在STL-10图像生成任务上具有竞争力,初始分数为9.16,FID分数为31.01,显示出很强的可迁移性。 另外,使用STL-10数据集来显示AutoGAN发现架构的可转移性。在使用STL-10进行训练时,采用5000张图像的训练集和100000张图像的未标记集。 研究人员获得了最新的FID分数12.42 图4:生成的AutoGAN的CIFAR-10结果,结果为随机抽样而非有意挑选 表2:STL-10上无条件图像生成的初始分数和FID分数。 它能够在CIFAR-10和STL-10数据集上识别出高效的架构,从而在当前最先进的人工制作的GAN模型中实现具有竞争力的图像生成结果。

    94930发布于 2019-08-27
  • 来自专栏新智元

    田渊栋团队新作:为什么非对比自监督学习效果好?ICML2021已接收

    这种简单的DirectPred方法在CIFAR-10中产生了相当不错的性能,并且在STL-10和ImageNet(60个epoch)的线性评估协议中,比线性预测器的梯度训练的精度高5%。 相比之下,使用梯度下降法,单一线性层预测器的BYOL在100个epoch后可以达到STL-10中74%-75%的Top-1。 使用DirectPred在BYOL训练100个epoch之后的STL-10的Top-1精度 DirectPred在训练了更多的epochs之后也保持良好的性能。 使用DirectPred经过更长时间训练的STL-10/CIFAR-10的Top-1精度 常数cj 如果cj是较小的负数,性能仍然很好,但如果cj为正会导致性能很差,这可能是由于许多小的特征值sj变为零 BYOL训练100个epoch后STL-10的Top-1精度 特征依赖Wp 使用两层预测器的优点之一是Wp可以取决于输入特征。作者通过使用输入空间的几个随机分区对此进行了探索。

    65220发布于 2021-07-29
  • 来自专栏全栈程序员必看

    【Cutout】《Improved Regularization of Convolutional Neural Networks with Cutout》[通俗易懂]

    Experiments 5.1 Datasets and Metrics CIFAR-10(32×32) CIFAR-100(32×32) SVHN(Street View House Numbers,32×32) STL 5.2 Experiments 1)CIFAR10 and CIFAR100 单个实验都重复跑了5次,±x 下图探索 cutout 中不同 patch length 的影响, 2)STL

    66820编辑于 2022-11-08
  • 来自专栏机器之心

    集多种半监督学习范式为一体,谷歌新研究提出新型半监督方法 MixMatch

    例如,在具有 250 个标签的 CIFAR-10 数据集上,MixMatch 将错误率降低了 71%(从 38% 降至 11%),在 STL-10 上错误率也降低了 2 倍。 研究者首先评估了 MixMatch 在四个基准数据集上的性能,分别是 CIFAR-10、CIFAR-100、SVHN 和 STL-10STL-10 是专为半监督学习设计的数据集,包含 5000 个标注图像和 100,000 个无标注图像,无标注图像的分布与标注数据略有不同。 表 2:MixMatch 与其他方法在 STL-10 数据集上的错误率对比,分为全为标注数据(5000 个)与只使用 1000 个标注数据(其余为无标注数据)两种实验设置。

    1.1K40发布于 2019-06-05
  • 来自专栏智能生信

    [ICCV | 论文简读] 深度自适应图像聚类

    实验结果表明,DAC在5个当前的数据集上取得了最好的结果,如在MNIST上达到97.75%,在CIFAR-10上达到52.18%,在STL-10上达到46.99%。

    1.3K10编辑于 2022-12-29
  • 来自专栏智能生信

    [IEEE | 论文简读] 深度自适应图像聚类

    实验结果表明,DAC在5个当前的数据集上取得了最好的结果,如在MNIST上达到97.75%,在CIFAR-10上达到52.18%,在STL-10上达到46.99%。

    48320编辑于 2022-12-29
  • 来自专栏一英里广度一英寸深度的学习

    深度学习图像处理数据集

    cifar_100.png STL-10 10分类,输入96963 ?

    1.3K20发布于 2019-04-23
  • 来自专栏机器学习算法与Python学习

    TransGAN更新!用纯Transformer构建高分辨率GAN

    在今年年初的时候,德克萨斯奥斯汀分校的团队推出了使用纯Transformer构建 Generative Adversarial Network并且在Cifar-10, STL-10, CelebA (64 最终,在同样使用数据增强的设定下,TransGAN在Cifar-10,STL-10,以及Celeba (128 x 128)等常用benchmark中取得了最好的成绩,并超过StyleGAN-v2等结构

    1.6K30发布于 2021-07-01
  • 来自专栏数据派THU

    你需要知道的11个Torchvision计算机视觉数据集

    True)test_loader = torch.utils.data.DataLoader(test_set, batch_size=64, shuffle=False) 左右滑动查看完整代码 8、STL -10数据集 STL-10数据集是一个图像识别数据集,由10个类组成,总共约6000 +张图像。 STL-10代表“图像识别标准训练和测试集-10类”,数据集中的10个类是:飞机、鸟、汽车、猫、鹿、狗、马、猴子、船、卡车。您可以直接从Kaggle下载数据集。 tensor transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5)) # Normalize the data])# Load the STL

    2K21编辑于 2023-04-25
  • 来自专栏机器之心

    模型跨界成潮流?OpenAI用GPT-2做图像分类,实现SOTA性能

    下图展示了,在 CIFAR-10、CIFAR-100、STL-10 和 ImageNet 数据集上,iGPT 与当前最佳非 iGPT 模型的性能对比情况: ? 在 CIFAR 和 STL-10 上的 Linear Probe 效果 研究者评估了不同模型使用 linear probe 在 CIFAR-10、CIFAR-100 和 STL-10 数据集上的性能,发现该研究提出的方法优于其他监督和无监督迁移算法

    1.1K30发布于 2020-06-20
  • 来自专栏机器学习、深度学习

    随机采样池化--S3Pool: Pooling with Stochastic Spatial Sampling

    can be adjusted in different applications by setting the grid sizes of each S3Pool layer Results on STL

    1.5K20发布于 2019-05-26
  • 来自专栏新智元

    【Ian Goodfellow盛赞】一个GAN生成ImageNet全部1000类物体

    “我们在CIFAR10,STL-10和ILSVRC2012数据集上测试了谱归一化的功效,通过实验证实了相对于那些使用此前提出的训练稳定技术训练的GAN,谱归一化GAN(SN-GAN)能够生成质量相同乃至更好的图像 我们在CIFAR10,STL-10和ILSVRC2012数据集上测试了谱归一化的功效,通过实验证实了相对于那些使用此前提出的训练稳定技术训练的GAN,谱归一化GAN(SN-GAN)能够生成质量相同乃至更好的图像

    1.3K110发布于 2018-03-21
  • 来自专栏人工智能头条

    CMU最新视觉特征自监督学习模型——TextTopicNet

    然后,我们分别在 PASCAL、SUN397 和 STL-10 数据集的图像分类和检测任务中进一步与当前最佳的自监督方法和无监督方法进行了比较。 Rest 线性 SVM 所取得的验证准确性(%mAP) ▌图像分类和图像检测 我们分别在 PASCAL、SUN397 和 STL-10 数据集进行图像分类和检测任务,比较并分析 TextTopicNet 下表 2、3和4 分别展示各模型在 PASCAL VOC 2007、SUN397 和 STL-10 数据集上的分类表现,表 5 展示了在 PASCAL VOC 2007 数据集上模型的检测性能。 表 2 PASCAL VOC2007 数据集上各模型的分类表现(%mAP) 表 3 SUN397 数据集上各模型的分类表现(%mAP) 表 4 STL-10 数据集上各模型的分类表现(%mAP) 表 5

    2K21发布于 2018-08-03
  • 来自专栏J博士的博客

    卷积神经网络经验-CS231n笔记

    一般都会找一些在ImageNet上有较好表现的预训练网络,下载下来然后做finetune input layer通常是2的倍数,比如32(CIFAR-10),96(STL-10) conv layer通常使用小滤波器

    35110发布于 2020-03-12
  • 来自专栏机器之心

    达摩院开源半监督学习框架Dash,刷新多项SOTA

    实验方面,我们在 CIFAR-10, CIFAR-100, STL-10 和 SVHN 等标准数据集上充分验证了其有效性。理论方面,论文从非凸优化的角度证明了 Dash 算法的收敛性质。 四、结果 我们在半监督学习常用数据集:CIFAR-10,CIFAR-100,STL-10 和 SVHN 上进行了算法的验证。

    41220编辑于 2023-03-29
  • 来自专栏CVer

    阿里达摩院开源:半监督学习框架Dash,刷新多项SOTA!

    实验方面,我们在 CIFAR-10, CIFAR-100, STL-10 和 SVHN 等标准数据集上充分验证了其有效性。理论方面,论文从非凸优化的角度证明了 Dash 算法的收敛性质。 四、结果 我们在半监督学习常用数据集:CIFAR-10,CIFAR-100,STL-10 和 SVHN 上进行了算法的验证。

    57620编辑于 2023-02-10
  • 来自专栏机器之心

    学界 | 最大化互信息来学习深度表示,Bengio等提出Deep INFOMAX

    半监督学习,即通过在最后一个卷积层(有标准分类器的匹配架构)上添加一个小型神经网络来微调整个编码器,以进一步评估半监督任务(STL-10)。 MS-SSIM,使用在 L2 重建损失上训练的解码器。 表 2:Tiny ImageNet 和 STL-10 的分类准确率(top-1)结果。

    2.1K10发布于 2018-09-20
  • 来自专栏我爱计算机视觉

    达摩院开源半监督学习框架Dash,刷新多项SOTA

    实验方面,我们在 CIFAR-10, CIFAR-100, STL-10 和 SVHN 等标准数据集上充分验证了其有效性。理论方面,论文从非凸优化的角度证明了 Dash 算法的收敛性质。 四、结果 我们在半监督学习常用数据集:CIFAR-10,CIFAR-100,STL-10 和 SVHN 上进行了算法的验证。

    35830编辑于 2023-03-06
领券