首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏未竟东方白

    AI】超分辨率经典论文复现(2)——2017年

    所选文章是知乎帖子 [从SRCNN到EDSR,总结深度学习端到端超分辨率方法发展历程]https://zhuanlan.zhihu.com/p/31664818 整理而来(文末点击原文可以跳转), 顺序接着上篇【AI 】超分辨率经典论文复现(1)——2016年. 才疏学浅, 错漏在所难免, 如果我的复现中有对论文的理解问题希望大家在留言处指出. , 增加递归次数能够得到好的效果, 论文最后使用了B1U25F128的组合, 两块TITANX在Mix291上训练了4天, 非常耗时, 而且结果仅仅比DRCN好一点, 这个结构很值得怀疑 LapSRN( 这个结构的特点是稍微改改超参数网络的规模就会极具扩大, 尽管稠密块可以较好地复用之前的参数让深度网络训练变得容易, 但是稠密块和残差连接使得显存消耗很大, 而且训练时推理速度较慢, 由于没有使用论文中那么大的数据集

    1.1K10发布于 2021-04-13
  • 论文检测,论文AI率,降AI率的工具

    论文怕因 AI 痕迹过重被质疑学术不端,自媒体文章担心 AI 味太浓,读者不买账。别慌,文字滚筒鸭带着 “全能神器” 闪亮登场,一站式解决你的 AI 率难题! 一、精准检测,让 AI 痕迹无所遁形文字滚筒鸭拥有自研的前沿检测算法,对论文、自媒体文章等各类文本展开深度扫描。它就像一位经验老到的侦探,不放过任何一处 AI 生成的蛛丝马迹。 从遣词造句的风格,到逻辑结构的搭建,一旦发现与 AI 模式相似之处,立刻精准定位。比如论文中那些过于规整、缺乏灵活变化的句式,或是自媒体文章里频繁出现的热门 AI 词汇组合,都逃不过它的 “法眼”。 一番操作下来,能将 AI 率大幅降低,使重复率稳稳控制在 3% 以内,让文章重新焕发原创生机。三、论文查重,保驾护航学术之路对于学生和学者而言,论文查重是一道绕不开的关卡。 一旦发现重复内容,即刻标记,并结合降重功能,给出针对性修改建议,助力论文顺利通过查重,为学术创作筑牢诚信基石。

    83621编辑于 2025-04-23
  • 来自专栏mathor

    Tacotron2论文阅读

    论文下载 ABSTRACT ? 这篇论文描述了Tacotron 2, 一个直接从文本合成语音的神经网络架构。 系统由两部分构成,一个循环seq2seq结构的特征预测网络,把字符向量映射为梅尔声谱图,后面再接一个WaveNet模型的修订版,把梅尔声谱图合成为时域波形。 作者们指出,相比WaveNet中使用的方法,Griffin-Lim算法会产生特有的人工痕迹并且合成的语音保真度较低,所以这只是一个临时方法,将来要替换成神经声码器 在这篇论文中,我们描绘一个统一的完整的神经网络语音合成方法 ,它集上述两种方法之长:一个seq2seq的Tacotron风格的模型用来生成梅尔声谱图,后接一个WaveNet声码器的修订版。 Char2Wav也提出了另外一个类似的方法,也使用神经声码器进行端到端的TTS学习,但它使用与我们不同的中间特征表达(传统的声码器特征),并且他们的模型架构与我们迥然不同 2 MODEL ARCHITECTURE

    1.8K20发布于 2020-08-13
  • 来自专栏YZh学习记录

    MobileNetV2 论文阅读

    MobileNetV2:Inverted Residuals and Linear BottleNecks 1 引言 MobileNetv2架构是基于倒置残差结构(inverted residual structure 论文的主要贡献在于提出一种新型层结构: 具有线性瓶颈的倒残差结构(the inverted residual with linear bottleneck)。 论文针对这个问题使用linear bottleneck(即不使用ReLU激活,做了线性变换)的来代替原本的非线性激活变换。 2.2 Inverted residuals MobileNetV2的网络模块样子是这样的: image.png 网络设计思路: 在V2的网络设计中,我们除了继续使用深度可分离(中间那个)结构之外,还使用了 bottleneck residual block(ResNet论文中的)是中间窄两头胖 在MobileNetV2中正好反了过来,所以,在MobileNetV2论文中我们称这样的网络结构为Inverted

    1.8K31发布于 2020-10-26
  • 来自专栏CreateAMind

    视频预测论文2

    CodeIssues14Pull requests0 Projects 0 Wiki Insights

    62520发布于 2018-07-24
  • 来自专栏JNing的专栏

    论文阅读: YOLOv2

    引入Batch Normalization,涨点2。 YOLOv2坐不住了,想要改basemodel。 Thinking YOLOv2中提出了很多trick,贡献很饱满; YOLOv2的加强版——YOLO-9000应该是最早开始对 large-scale detection 领域进行拓荒的了。 ---- [1] YOLO9000: Better, Faster, Stronger [2] 详解YOLO 2与YOLO 9000目标检测系统 | 分享总结 [3] YOLO升级版:YOLOv2 和YOLO9000解析 [4] 解读Yolo2和Yolo9000目标检测系统 [5] Object Detection – 论文YOLO2(YOLO9000:Better, Faster, Stronger

    1.2K40发布于 2018-09-27
  • 来自专栏java知识

    如何用AI论文

    2. 框架搭建:AI生成标准化论文大纲计算机类论文大纲需遵循“引言-相关工作-研究方法-实验设计-结果分析-结论”的固定范式,AI可基于选题自动生成结构化大纲,并补充各章节核心技术要点。 注意事项:AI生成的综述内容需人工复核,修正“文献表述偏差”(如算法参数错误、技术原理误解),同时补充个性化分析,避免模板化表述。2. (2)算法流程图与代码辅助流程图生成:通过AI工具(如Mermaid AI)输入算法步骤,自动生成标准化流程图(适配IEEE格式),例如输入“改进YOLOv8算法的前向传播流程:图像输入→预处理→C2f 2. 结果可视化与分析:AI生成标准化图表与结论推导实验结果需通过图表(精度曲线、混淆矩阵、对比表格)展示,AI可辅助生成可视化代码与分析结论,贴合计算机类论文的表述规范。 2.

    41710编辑于 2026-01-16
  • 来自专栏AI科技大本营的专栏

    NIPS2018 | 腾讯AI Lab入选20篇论文,含2篇Spotlight

    腾讯AI Lab第三次参加NIPS,共有20篇论文入选,其中2篇被选为亮点论文(Spotlight),涵盖迁移学习、模仿学习、半监督学习等多个研究主题,去年我们入选论文8篇,含1篇口头报告(Oral)。 我们将在下文一一解析本次腾讯AI Lab入选论文,也邀请大家在NIPS的现场跟我们进一步交流与讨论。 研究者在GRIDWORLD和AI2-THOR上进行了大量实验,结果表明新提出的模型可以有效地在 400 个(Env, Task)组合之间成功迁移,而模型的训练只需要这些组合的大概40%。 2. AI Lab 合作完成,提出了学会多任务学习(L2MT)的框架,能够自动发掘对于一个多任务问题最优的多任务学习模型。 在标准数据集上的实验证明了 L2MT 的有效性。 上图展示了 L2MT 的框架,该框架包含 2 个阶段。

    85330发布于 2018-10-22
  • 来自专栏腾讯高校合作

    NIPS2018 | 腾讯AI Lab入选20篇论文,含2篇Spotlight

    腾讯AI Lab第三次参加NIPS,共有20篇论文入选,其中2篇被选为亮点论文(Spotlight),涵盖迁移学习、模仿学习、半监督学习等多个研究主题,去年我们入选论文8篇,含1篇口头报告(Oral)。 我们将在下文一一解析本次腾讯AI Lab入选论文,也邀请大家在NIPS的现场跟我们进一步交流与讨论。 研究者在GRIDWORLD和AI2-THOR上进行了大量实验,结果表明新提出的模型可以有效地在 400 个(Env, Task)组合之间成功迁移,而模型的训练只需要这些组合的大概40%。 2. 基于学习的多任务学习框架L2MT Learning to Multitask 论文地址:https://arxiv.org/abs/1805.07541 这项研究由中国香港科技大学与腾讯 AI 在标准数据集上的实验证明了 L2MT 的有效性。 上图展示了 L2MT 的框架,该框架包含 2 个阶段。

    60910发布于 2018-12-11
  • 深度剖析免费AI论文神器 文赋AI论文 + DeepSeek,教你借助 AI 提升论文写作效率(全网最深度图文指南)

    DeepSeek 和文赋 AI 作为两款免费且功能强大的 AI 工具,为论文写作带来了新的可能。本指南将深度剖析这两款工具,并手把手教你如何借助它们提升论文写作效率。 其先进的算法能够对这些信息进行智能整理和分析,为论文写作提供全面且有价值的参考依据。(二)文赋 AI文赋 AI 专注于论文内容的创作和优化。 它能够根据输入的主题和相关要点,生成逻辑清晰、结构合理的论文大纲,并进一步创作丰富详细的论文内容。同时,文赋 AI 还具备语言优化功能,能提升论文的学术性和专业性。 八、论文完善:DeepSeek 与文赋 AI 协同作战(一)逻辑检查使用文赋 AI 的内容分析功能,检查论文各部分之间的逻辑连贯性。 希望本指南能帮助你充分利用 DeepSeek 和文赋 AI 提升论文写作效率,顺利完成高质量的论文

    52210编辑于 2025-03-09
  • 来自专栏机器之心

    AI顶会,正在使用AI来审阅AI论文

    机器之心报道 编辑:蛋酱、泽南 近年来我们在报道 AI 顶会的文章里不断听到「史上最大」、「论文数量新高」等字眼,论文的审核俨然成了一项挑战。但既然是在研究 AI,为什么不让机器来自动解决问题? 同时还有方法更加优化的 AI 软件:论文审阅平台 OpenReview 开发了一种「亲和力评测」系统,借助了神经网络「Spectre」来分析论文标题和摘要。 AI 会议的组织者希望通过提高匹配质量来推动同行评审和出版论文的质量。 具体结论可以参考 Ivan Stelmakh 所写的这篇 2论文:https://www.aaai.org/AAAI21Papers/DC-169.StelmakhI.pdf OpenReview 今年 2 月,康奈尔大学、Facebook 一篇发在 arXiv 上的论文《Making Paper Reviewing Robust to Bid Manipulation Attacks 》描述了使用机器学习来过滤可疑论文审核竞标的过滤方法

    61320编辑于 2023-03-29
  • 来自专栏腾讯技术工程官方号的专栏

    NIPS2018 | 腾讯AI Lab入选20篇论文,含2篇Spotlight

    腾讯AI Lab第三次参加NIPS,共有20篇论文入选,其中2篇被选为亮点论文(Spotlight),涵盖迁移学习、模仿学习、半监督学习等多个研究主题,去年我们入选论文8篇,含1篇口头报告(Oral)。 我们将在下文一一解析本次腾讯AI Lab入选论文,也邀请大家在NIPS的现场跟我们进一步交流与讨论。 研究者在GRIDWORLD和AI2-THOR上进行了大量实验,结果表明新提出的模型可以有效地在 400 个(Env, Task)组合之间成功迁移,而模型的训练只需要这些组合的大概40%。 2. AI Lab 合作完成,提出了学会多任务学习(L2MT)的框架,能够自动发掘对于一个多任务问题最优的多任务学习模型。 在标准数据集上的实验证明了 L2MT 的有效性。 上图展示了 L2MT 的框架,该框架包含 2 个阶段。

    14K41发布于 2018-10-17
  • 来自专栏数据派THU

    详解AI Lab 21篇CVPR 2018论文(附论文

    本文从立题背景、作者思路及研究特点为你详解计算机视觉顶会论文。 一年一度的计算机视觉顶会CVPR即将召开,入选论文也陆续揭晓。 今天分享入选论文解析的是腾讯AI Lab。 在去年6篇入选之后,腾讯AI Lab今年状态更勇,总共有21篇论文入选CVPR。 以下是21篇入选论文详解: 1. 2. 基于递归的左右双目对比模型的立体匹配 Left-Right Comparative Recurrent Model for Stereo Matching 本文由AI Lab主导完成。 作者提出了一种全新的自动图像标注的生成式模型,名为多样性和独特性图像标注(D2IA)。受到人类标注集成的启发,D2IA将产生语义相关,独特且多样性的标签。 在论文中,利用自然语言描述视频序列的视觉内容使这个问题得到解决。

    94540发布于 2018-06-07
  • 来自专栏DeepSeek - R1

    如何巧用 DeepSeek 和文赋 AI 论文,完成论文初稿

    DeepSeek 和文赋 AI 论文这两款利器,若能巧妙配合,足以助力在一天内完成论文初稿,为后续精修留出充裕时间。 文赋AI论文——论文写作神器~一键生成论文前期筹备:锁定主题与日程规划在开启创作前,明确论文主题是关键。假设本次论文聚焦 “人工智能在医疗影像诊断中的创新应用”。 上午:靠文赋 AI 论文搭建稳固大纲完成资料收集后,切换至文赋 AI 论文平台。在选题模块输入论文主题,文赋 AI 论文即刻分析该选题的研究价值、当前学术热点及潜在突破方向,进一步明晰论文走向。 午后:用文赋 AI 论文充实内容成稿(一)依大纲逐章生成内容以大纲为指引,在文赋 AI 论文平台中,按章节依次生成内容。 不过,在使用 AI 工具辅助写作时,作者务必保持批判性思维,对生成内容仔细甄别、审慎审核,保障论文学术质量与原创性。

    44010编辑于 2025-04-30
  • 来自专栏数据派THU

    近期AI领域8篇精选论文(附论文、代码)

    本文带你发掘近期8篇AI领域精选论文的亮点和痛点,时刻紧跟 AI 前沿成果。 in Large Domains @xcwill 推荐 #Dialog Systems 本文来自剑桥大学和 PolyAI,论文提出了一种新的强化学习方法来解决对话策略的优化问题。 围绕答案选择、最佳答案选择、答案触发三个任务,论文提出的模型 RTM 取得了多个 state-of-art 效果。 审议是人们日常生活中的一种常见行为,如阅读新闻、撰写论文/文章/书籍,在本文中,团队将审议过程引入到编码器 - 解码器框架中,并提出用审议网络进行序列生成。 论文链接:https://www.paperweekly.site/papers/1749

    86480发布于 2018-06-07
  • 来自专栏CreateAMind

    vae 相关论文 表示学习 2

    disentangling inβ-VAE https://github.com/miyosuda/disentangled_vae https://github.com/rdevon/DIM 互信息最新论文代码 代码 https://github.com/nicola-decao/s-vae-tf 球形vae代码 https://github.com/miyosuda/disentangled_vae 互信息论文

    1.1K40发布于 2018-09-27
  • 来自专栏祥的专栏

    张正友论文翻译(2)

    前文链接:[图像]张正友论文翻译(1) 张正友论文原文 原文链接: 2000.11 A flexible new technique for camera calibration 5.pdf 我的译文

    64710发布于 2020-03-10
  • 来自专栏CV学习史

    GoogLeNetv2 论文研读笔记

    epsilon}} \] 此时,如果忽略\(\epsilon\),这些标准化的激活具有相同的均值0和方差1,使用无偏方差估计\(Var[x] = \frac{m}{m-1} E_{\beta} [\sigma^2_ {\beta}]\),其中期望是在大小为m的小批量训练数据上得到的,\(\sigma^2_{\beta}\)是其样本方差。 这导致验证准确率提高了约1% 减少L2全中正则化。虽然在Inception中模型参数的L2损失会控制过拟合,但在修改的BN-Inception中,损失的权重减少了5倍。 其实就是把每个隐层神经元的激活输入分布从偏离均值为0方差为1的正态分布通过平移均值压缩或者扩大曲线尖锐程度,调整为均值为0方差为1的正态分布 当输入均值为0,方差为1时,当使用sigmoid激活函数时,绝大多数的输入都落到了[-2,2

    86430发布于 2019-09-10
  • 来自专栏JNing的专栏

    论文阅读: 1606.Deeplabv2

    类似于SPPNet的空间金字塔结构),并行的采用多个采样率的空洞卷积提取特征,再将特征融合: 能够用多尺度获得更好的分割效果: 更多的ASPP变种: 更优的backbone: DeepLabv2使用

    40420编辑于 2021-12-06
  • 来自专栏GiantPandaCV

    《DeepLab V2论文阅读

    前言 昨天的推文《DeepLab V2》组织方式很不清晰,没有将关键结论以及空洞卷积这种方法的优点讲出来,所以重新组织了一下这篇论文的解读,希望可以带来不一样的体验。 而Fig.2(b)在高分辨率输入5维图片上,zeropadding=2,膨胀速率2的膨胀卷积来采集密集特征的示意图,使用空洞卷积能提取到更多的密集特征,计算量较常规卷积基本保持不变。 在二维图像上的空洞卷积,论文给了另外一张图Fig3: ? Fig.3中上分支是将输入图片下采样1/2后使用卷积核大小为7的标注卷积得到feature map后再上采样2倍得到结果。 训练细节 论文在ImageNet预训练的VGG-16和ResNet-101网络上进行finetune,将输出的1000类改成语义分割数据集的分类数,COCO和VOC都是21类,损失函数是CNN的输出( 除了这些工作,论文还尝试了在COCO数据集上进行了测试,mIOU可以达到77.69%,具体可以参考原文,这个算法也是达到了当时的SOAT。

    1K20发布于 2019-12-09
领券