首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏磐创AI技术团队的专栏

    学习GAN必须阅读10论文

    本文将列出 10 篇关于 GAN 的论文,这些论文详细介绍了 GAN,以及了解最新技术的基础。 Progressively Growing of GANs for Improved Quality, Stability, and Variation (2017) 由于其令人印象深刻的结果和对GAN问题的创造性方法,这篇论文是必须要阅读一下的 映射网络和AdaIN训练分布在整个生成器模型中的的组合使得自己很难实现,但它仍然值得阅读,它包含了许多有趣的想法。 因为循环一致性损失公式的优雅以及如何稳定GAN训练的方式,这是一篇值得阅读论文。有许多有趣的程序使用CycleGAN,例如超分辨率,风格迁移,让马变为斑马。 本文还给出了最优鉴别器的推导,这是最近GAN论文中经常出现的证明。本文还证明了GAN在实验中对MNIST,TFD和CIFAR-10图像数据集的有效性。

    73440发布于 2019-05-05
  • 来自专栏我还不懂对话

    论文阅读10 CHALLENGING PROBLEMS IN DATA MINING RESEARCH

    很多不错论文都引用了此篇论文,于是阅读了这篇06年论文。 Abstract 介绍数据挖掘中的10个具有挑战性的问题,分析数据挖掘问题出现位置的一份高级指南。 10. Reference http://www.cs.uvm.edu/~icdm/10Problems/10Problems-06.pdf

    80240发布于 2021-10-19
  • 来自专栏我还不懂对话

    论文阅读】- 怎么快速阅读ML论文

    机器学习的论文很多,怎么从Arxiv上泛滥的文章中选择论文阅读,那么我们就需要快速地了解论文内容概要,从而决定是否精读。 那么怎么快速阅读呢,作者提出只需要阅读过程中只需要回答出以下5个简单问题即可:1. 文章的模型(函数)的输入是什么? 论文里面的说法是否可靠?个人理解,是说论文里面指标是否靠谱,方法是否实用等。凭我自己的经验,一般可以从以下几点来看:论文方法是否过于trick,是否非常复杂(奥卡姆剃刀原理)。 一般很好的论文思想都很简单,反而是一些水文花里胡哨,指标提升像极了随机波动。是否开源代码。这个很重要,开源也分很多级别:第一档:被开源框架集成,那么这种算法基本没啥问题,方法也是被业界其他人认可。

    73120编辑于 2022-10-08
  • 来自专栏DeepHub IMBA

    2021 年 10 月推荐阅读10篇精选ML论文

    每个月都会有几千篇的论文在arXiv发布,我们不可能看完所有的文章,但是我们可以从中找到一些趋势: 大型语言模型不再与较小的模型在同一类别中竞争(如训练前+监督数据微调)。为什么? 幸运的是,学者们经常关注这一点,传统上大多数揭示事实的论文都来自大学,就像我们很快就会看到的那篇。 这篇论文的缺点也是它的优点:为进一步优化他们的实验而付出的有限的范围和努力。 但是还有一个重要的警告没有在论文中彻底解决:注意力矩阵中的偏差通过一个 softmax 来抑制远标记的贡献,这就像有一个注意力的“软窗口”。 这本纸质书包含了很多内容:概述、介绍和论文,内容涉及在大量数据的监督下训练的大型神经模型的新兴领域,为此,它们被称为基础模型。

    57120发布于 2021-10-09
  • 论文阅读助手:用腾讯云ADP打造基于意图识别的智能论文查询系统

    本文将深入解析一个基于腾讯云智能体开发平台(TencentCloudADP)构建的论文阅读助手智能体,该系统通过意图识别技术,能够智能理解用户查询需求,并提供三种核心功能:关键词搜索论文、获取论文摘要、 效果展示体验链接:https://adp.cloud.tencent.com/webim_exp/#/chat/sLwPrU整体架构这个论文阅读助手智能体具备以下核心能力:1.智能意图识别:a.自动识别用户查询意图 b.支持自然语言交互c.基于Youtu/youtu-mrc-pro大模型2.多维度论文查询:a.根据关键词搜索论文b.根据论文ID获取详细摘要c.搜索论文相关解读和宣传稿3.智能内容处理:a.自动翻译英文论文摘要 a.示例查询:“找找这一周的NLP相关论文”b.路由目标:参数提取1→论文搜索工具2.根据论文ID获取摘要a.示例查询:“我想看看第一篇论文的摘要”b.路由目标:参数提取11→摘要获取工具3.搜索论文相关解读 ,系统提供了完善的兜底处理:兜底回复节点●节点名称:回复3●回复内容:“抱歉我无法回答其他问题”●功能:为超出系统能力范围的查询提供礼貌的拒绝回复总结通过对实际工作流配置文件的深入分析,我们了解了这个论文阅读助手系统的真实技术架构

    13210编辑于 2026-02-25
  • 来自专栏Yunfeng's Simple Blog

    VitPose 论文阅读

    概述 VitPose是最近出来的一篇用Transformer结构做人体2D关键点估计的论文,采用比较简单的Transformer结构就能在MS COCO 测试集上取得比较好的结果,挺吸引人的。 论文不长,这周末读了一遍,感觉值得借鉴的地方挺多,这里我用自己的语言描述论文的细节,同时把自己的一些疑惑和思考写下来,欢迎讨论交流。 论文标题: ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation 论文地址:https://arxiv.org/abs /2204.12484 代码地址:https://github.com/ViTAE-Transformer/ViTPose 注:本文中框图和表格均来自原论文。 继续阅读前的几个疑问 读完摘要和Introduction部分,我决定继续精读这篇论文,因此在进一步阅读前,为了提升对论文的理解程度,我想出了下面的问题,希望在读完剩余部分的时候,这些问题都能得到回答:

    49520编辑于 2023-10-23
  • 来自专栏NLP算法工程师之路

    论文阅读-20190924

    论文1 《SANVis: Visual Analytics for Understanding Self-Attention Networks》 简介 这一篇文章是关于Self-Attention可视化的 论文2 《BERT Meets Chinese Word Segmentation》 简介 这篇论文介绍BERT用于中文分词任务的。 论文结果 BERT可以稍微提高CWS任务的性能。就Softmax分类器来说,MSR数据集和PKU数据集F1分数分别有+0.3和+0.4提高。 充分训练的时候,CRF和Softmax达到相同的性能。 论文4 《Subword ELMo》 简介 这篇文章主要使用Subword提升ELMo的性能,思路很简单。这里主要看一下网络结构。 ? 稍微扩充一下Highway Network,论文,公式如下,其中T=sigmoid(wx + b): ? 流程图 ? 对比ResNet ?

    1K20发布于 2019-12-18
  • 来自专栏JNing的专栏

    论文阅读: ResNet

    Introduction ResNet论文是里程碑级的basemodel,因此获得了 CVPR 2016 Best Paper,并统领江湖至今: ? 后两者结构复杂,在大数据集和更深的网络上效果略优于ResNet,因此成为论文刷AP值、比赛打榜的首选basemodel。

    1.3K30发布于 2018-09-27
  • 来自专栏JNing的专栏

    论文阅读: ShuffleNet

    作者注意到,像Xception、ResNeXt这么好的网络结构,一旦被压缩为小网络,就会性能低下。这也导致了这类先进的网络结构无法被落地到移动设备上。

    58730发布于 2018-09-27
  • 来自专栏YZh学习记录

    CAM 论文阅读

    发现场景中信息丰富的物体:我们从SUN数据集[27]中抽取10个包含至少200个完全注解图像的场景类别,从而产生总共4675个完全注解的图片。 图10,我们可视化了排名最高的图片以及两个概念检测器的CAM图。注意,即使这些短语比典型的物体名更抽象,CAM也会将这些概念的信息区域进行定位。 参考链接: 论文翻译参考: https://cloud.tencent.com/developer/article/1390900 https://zhuanlan.zhihu.com/p/27587399

    1.4K50发布于 2020-09-21
  • 来自专栏mathor

    WAVENET论文阅读

    论文下载 谷歌DeepMind2016年的深度生成模型 WaveNet 将机器语音合成的表现与人类之间水平的差距至少缩减了 50% ABSTRACT ? 这篇论文提出了WaveNet,一个生成原始音频波形的深度神经网络。 这篇论文要解决的问题是,同样的方法是否可以在宽带原始音频波形的生成中奏效,这些音频波形信号具有非常高的时间分辨率,至少每秒16000个样本(参照图1) 这篇论文介绍WaveNet,一个基于PixelCNN 这篇论文中,我们提出一个新的生成模型,它能直接产生原始音频波形。音频波形的联合概率x=\{x_1,... 这个实验中我们在扩大卷积后面增加了一个平均池化层,它把激活输出聚合成10毫秒的帧(160×下采样)。池化层后接几个非因果卷积。

    1.4K30发布于 2020-08-10
  • 来自专栏JNing的专栏

    论文阅读: DenseNet

    将原本ResNet的 “串行式一对一的identity mapping” 变成了 “一对多的identity mapping”:

    69830发布于 2018-09-27
  • 来自专栏YZh学习记录

    squeezenet 论文阅读

    然而, 这些论文并没有试图提供关于神经网络设计空间形状的直觉。 SqueezeNet 在层 conv1、fire4、fire8 和 conv10 之后执行最大池化, 其步长为 2;这些相对较晚地执行池化操作是在执行3.1节的策略3。 这些选择背后的直觉可以在下面引用的论文中找到。 通过10×压缩 SqueezeNet 的深层压缩, 同时保留基线精度。 7 论文阅读总结 关于神经网络的部分理解: CNN微结构 CNN宏观结构 关于模型压缩的方法: 这方面理论基础为无,后续加强。

    71310发布于 2020-09-08
  • 来自专栏Yunfeng's Simple Blog

    FastViT 论文阅读

    概述 论文地址:arxiv 代码地址:ml-fastvit FastViT 是苹果公司在 ICCV 2023上发表的网络结构设计的论文,在速度和精度上取得比较好的折衷,速度上既能和MobileOne这种轻量级网络匹敌 比较有意思的是,FastVit 这篇论文的作者列表、作者顺序都和 MobileOne 一模一样! 下面是过参数化的示意图(图片来自这里): MobileOne 论文中就采用了过参数模块,验证可以提高网络的学习能力。 在这篇论文中,为了提速,先是将普通的 KxK 的Conv修改为DepthWise KxK 的 Conv + 1x1 PointWise 的 Conv层,发现在提速后精度下降,例如论文中 Table 1 另外 FastViT 的代码实现很简洁优雅,阅读起来很舒服,后面有空可以写一篇代码阅读的文章,欢迎感兴趣的小伙伴关注、点赞和评论区留言~

    45920编辑于 2023-10-23
  • 来自专栏JNing的专栏

    论文阅读: SSD

    论文中提到的“default box”,其实就是“anchor”: ? 具体地,SSD分别在 conv4_3、fc7、conv8_2、conv9_2、conv10_2、conv11_2 这六个逐级scale/2×2的feature map上,按照 K 依次等于 4、6、6、 Result 在VOC2007上,SSD的检测精度高过当时的精度之王Faster R-CNN (然而这只是论文中给出来的数据,实际上精度差了Faster R-CNN一大截): ? 最近工作主要是看论文,发现要想把整条Detection的脉络捋清晰,建立自己的一套认知,还是很花功夫的。 ---- [1] SSD: Single Shot MultiBox Detector [2] 深度学习论文笔记:SSD [3] 检测任务专题1: SSD在训练什么 [4] SSD关键源码解析

    2K20发布于 2018-09-27
  • 来自专栏mathor

    VGG论文阅读

    论文下载 VGG 是 ImageNet 2014 年目标定位竞赛的第一名,图像分类竞赛的第二名 VGG论文图 ? 摘要中,作者研究了模型深度与精确度之间的关系。" 在引言中,作者提到了其他一些论文研究,有的人着眼于用尺寸更小的filter和第一层卷积的stride,还有的人在整个图像和多个尺度上对网络进行密集地训练和测试。 这篇论文主要是对模型的深度进行改进,固定其他的超参数,通过不断的增加层数,其中的技巧是因为作者所有的filter都使用的非常小的(3×3)的卷积滤波器 ? 为了加速S=384网络的训练,用S=256预训练的权重来进行初始化,我们使用较小的初始学习率$10^{-3}$" 设置S的第二种方法是多尺度训练,其中每个训练图像都是通过从一定范围内随机采样S来单独重新标定的

    82810发布于 2019-12-30
  • 来自专栏JNing的专栏

    论文阅读: ResNeXt

    在CIFAR-10上: ResNeXt分类top-1错误率更低一点: ? 在COCO上: ResNeXt分类AP值更高一点: ? 后两者结构复杂,在大数据集和更深的网络上效果略优于ResNet,因此成为论文刷AP、比赛打榜的首选basemodel。

    1.8K30发布于 2018-09-27
  • 来自专栏JNing的专栏

    论文阅读: Xception

    Introduction GoogleNet论文中研究 group size 而搞出了Inceptionv1(即多group的CNN分支)。

    2K20发布于 2018-09-27
  • 来自专栏JNing的专栏

    论文阅读: SNIP

    对于强调自己的innovation,并使得论文被录用,反而是不利的。因此作者并没有画蛇添足。 An Analysis of Scale Invariance in Object Detection - SNIP [2] CVPR18 Detection文章选介(下) [3] 目标检测论文阅读

    1.2K20发布于 2018-09-27
  • 来自专栏JNing的专栏

    论文阅读: SPPNet

    R-CNN中,通过在原图先抠取出很多的像素块,再分别单独进行特征抽取的方式来一个个生成proposal,很低效:

    1.5K20发布于 2018-09-27
领券