首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏贾志刚-OpenCV学堂

    干货 | 样本工业缺陷检测方法概览

    基于CNN与特征比对的缺陷检测方法 以PatchCore为代表的正样本学习方法是当前样本工业缺陷检测的主流技术之一。 其核心思想是仅使用正常样本构建一个高维特征记忆库,将待检测图像划分为多个局部图像块(patches),并通过CNN提取每个图像块的特征向量。 这种方法不需要缺陷样本进行训练,适应性强,尤其适用于纹理规则、背景一致的产品表面检测,如金属、织物、半导体芯片等。 Transformer特征比对缺陷检测方法 随着Transformer架构在视觉领域的成功,基于自监督学习的视觉Transformer(ViT)模型,如DINO和CLIP,也被应用于样本缺陷检测。 多模态网络的文本提示指导方法 以CLIP、InternVL等为代表的多模态网络,为工业缺陷检测提供了新的样本思路。这类方法不仅利用视觉特征,还引入了文本提示(text prompt)作为指导信息。

    17310编辑于 2026-04-02
  • 来自专栏生信喵实验柴

    临床样本检测

    ,并在 6 小时内准确检测抗性基因的突破性研究。 据悉,为了能够准确、快速地识别细菌病原体,研究团队开发了一种能够从临床样本中去除多达 99.99%的宿主核酸的流程,并在便携式 MinION 测序仪上开展了实时的检测和分析。 该方法从样品到结果仅需 6 小时,对病原体检测的敏感性 96.6%、特异性 41.7%,同时可检测抗生素抗性基因; 4. 二、下载数据 https://www.ebi.ac.uk/ena/browser/view/PRJEB30781 三、病原微生物鉴定 3.1单个样本 过滤宿主序列 #数据路径 #/data -ax map-ont $REF $READ -Y -N 20 -t 12 >minimap2.sam samtools fastq -f 4 minimap2.sam | gzip >P10.filter.fq.gz

    78120编辑于 2023-02-24
  • 来自专栏深度学习和计算机视觉

    使用样本目标检测识别物体 | 附代码

    重磅干货,第一时间送达 在这篇文章中,我们将探讨如何使用Hugging Face的transformers库来使用样本目标检测在冰箱图像中识别物体。 # 导入必要的库 from transformers import pipeline 在这里,transformers库用于目标检测,利用Hugging Face的样本目标检测模型。 样本模型是目标检测任务的强大工具,因为它们不需要对每个对象的特定数据集进行训练,而是能够开箱即用地理解各种对象的上下文。 0.15651869773864746, 'label': 'milk', 'box': {'xmin': 417, 'ymin': 1324, 'xmax': 635, 'ymax': 1450}}] 在样本检测中 }”, fill=”white”) image 图像中检测到的物体 结论 这个代码示例展示了样本目标检测在动态环境中识别物体的强大功能,比如冰箱内部。

    43421编辑于 2024-12-09
  • 来自专栏DeepHub IMBA

    样本和少样本学习

    样本的一种方法是使用CNN和带有(n+1)的softmax来检测模型看到的图像中是否存在新的图像。但是当你的训练数据集中没有足够的样本时,他并不能很好地工作。 d(img1, img2) =图像间差异程度,若d(img1, img2) <= r:相同;若d(img1, img2) > r:不同 样本学习 首先,让我们看看为什么样本学习很重要。 从监督到样本的模式识别 我们以前在经典的分类模型中的做法是这样的: 但当出现新的类别时,该怎么做呢?关键是样本学习。样本学习的主要思想是将类别嵌入为向量。 “监督”来源:(1)类属性的手工标注,(2)分类类层次的矢量编码 “无监督”来源:现有的非结构化数据(Word2Vec就是一个例子) 样本学习的一些问题 1、领域转移时样本学习需要重新训练/测试 ,协变量上下文向量:距离、俯仰、速度、横摇、偏航等 2、跨语言词典归纳:查找不同语言的单词对应 总结 样本和少样本学习方法减少了对注释数据的依赖。

    1.3K20编辑于 2022-11-11
  • 来自专栏AI科技评论

    今日 Paper | 小样本学习;机器学习;单幅图像去雾 ;样本目标检测

    目录 提高小样本学习对全新分类的识别能力 机器学习的“学习如何遗忘” 复杂城市背后简单的空间尺度规则 FD-GAN:具有融合鉴别器的生成对抗网络用于单幅图像去雾 GTNet:用于样本目标检测的生成迁移网络 GTNet:用于样本目标检测的生成迁移网络 论文名称:GTNet: Generative Transfer Network for Zero-Shot Object 19 论文链接:https://arxiv.org/abs/2001.06812v1 推荐原因 这篇论文提出了一种生成迁移网络(Generative Transfer Network,GTNet)来用于样本目标检测 GTNet包含一个目标检测模块和一个知识迁移模块。前者可学习大量已知领域知识,而后者利用合成的特征来生成未知类型的特征,这些特征则被用于训练目标检测模块中新的分类层。 在公共数据集上的评估表明这篇论文提出的GTNet优于当前最佳的样本目标检测方法。

    79110发布于 2020-02-21
  • 来自专栏贾志刚-OpenCV学堂

    工业缺陷检测新王者-样本多模态VLM模型解密

    大模型技术已经进入下半场,从纯文本的LLM范式进化到更高级MLLM范式 样本缺陷检测 样本工业缺陷检测模型是当前工业AI领域的前沿研究方向,旨在通过多模态大模型的图像与文本提示输入结合,实现感知与认知模型融合 DINOv3、SAM2等视觉语言大模型(VLM)结构,掌握基于VLM的图像分类、对象检测、OCR识别、样本工业异常检测、异常分割、PCA主成分分析、小样本训练、知识蒸馏等主流VLM开发技术、掌握视觉语言模型与多模态模型的全栈开发技术 004-CLIP图像特征提取与相似比对 005-CLIP构建以文搜图与以图搜图 006-CLIP样本异常缺陷分类检测 007-CLIP样本异常缺陷分割检测 008-CLIP模型微调自定义正样本缺陷分割检测从训练到部署 第八章:DINO网络与应用 001-DINO系列网络模型详解 002-实战DINOv2样本图分类 003-样本DINOv2与DINOv3特征提取与分割 004-基于DINOv2特征的PCA分析 005-DINOv2样本异常缺陷检测 第九章:SAM网络与应用 001-SAM1到SAM3网络模型结构详解 002-SAM2实例分割与跟踪 第十章:VLM系列模型与应用 001-VML模型概述与典型架构

    21300编辑于 2026-04-02
  • 来自专栏贾志刚-OpenCV学堂

    AD-DINOv3 | 异常感知校验的样本检测

    提出了AD-DINOv3,这是首个将DINOv3适配于样本异常检测的框架,填补了自监督视觉编码器与异常检测任务之间的空白。 引入了一种带有轻量级适配器的跨模态对比学习策略,以充分利用DINOv3的层次化表征进行样本异常检测。 在八个工业与医疗基准数据集上超越或媲美现有最先进方法,证明了其作为通用样本异常检测框架的有效性。 架构与方法 我们采用DINOv3作为AD-DINOv3的视觉主干网络。 如图2所示,图像分支会提取图像块标记和一个CLS标记,这些标记通过轻量级适配器与异常感知校准模块共同进行优化处理。

    13610编辑于 2026-04-02
  • 来自专栏贾志刚-OpenCV学堂

    AA-CLIP | 最新样本工业缺陷异常检测模型

    异常检测(AD)识别出缺陷和病变检测中的异常值。虽然CLIP在样本异常检测任务中显示出有希望的结果,但由于其内在的异常不感知特性,它在区分正常特征和异常特征方面存在局限性。 大量实验验证了AA-CLIP是一种高效且资源节约的解决方案,在工业和医疗应用中实现了样本异常检测任务的最先进结果。 如图1(左)和图2中的示例所示,正常纹理特征和异常纹理特征的重叠影响了基于文本的异常检测的精度。 通过使用最少的样本进行训练——例如每个类别一个正常样本和一个异常样本2-shot)——并在未见过的数据集上进行测试,我们的方法实现了与基于CLIP的其他AD技术相当的样本性能。 我们实现简单的残差适配器以提高样本异常检测性能,而不会牺牲模型的泛化能力。 3. SOTA性能与高训练效率。

    16710编辑于 2026-04-02
  • 来自专栏贾志刚-OpenCV学堂

    AA-CLIP | 样本异常检测从训练到部署

    AA-CLIP- 两阶段异常感知CLIP,是最新的样本异常检测模型,支持文本与图像输入编码,特征比对实现工业与医疗图像的异常分类与分割。 https://github.com/Mwxinnn/AA-CLIP AA-CLIP训练 说实话官方github上面的代码写的挺好的,基本没有什么坑,可以直接运行训练,我用我自己的数据集,直接训练,采用小样本模式 ,八个样本训练,命令行如下: 训练日志如下: INFO:__main__:args: {'model_name': 'ViT-L-14-336', 'img_size': 518, 'surgery_until_layer dataset': 'MVTec', 'training_mode': 'few_shot', 'shot': 8, 'text_batch_size': 16, 'image_batch_size': 2, _:training image epoch 1: INFO:__main__:loss: 2.6655399345216297 INFO:__main__:training image epoch 2:

    17210编辑于 2026-04-02
  • 来自专栏计算机视觉战队

    样本检测:蒸馏&上下文助力小样本检测(代码已开源)

    2 背景 先前对Few-Shot物体检测的研究主要由两组组成。他们中的大多数采用基于元学习的框架来为特定于类的预测执行特征重新加权。 然而,由于小样本对象检测的挑战性,上述方法通常存在一些缺点。 其次,尽管尺度变化问题在之前的工作中得到了广泛的研究,但它仍然是小样本检测任务中的一个严重障碍。在少样本设置下,具有尺度感知改变的特征提取器倾向于过度拟合,导致基类和新类的性能下降。 Few-Shot Object Detection 小样本目标检测旨在仅提供一些带注释的训练示例,从新类别中检测目标。 Meta YOLO 最近,Meta YOLO使用YOLO v2设计了一种新颖的小样本检测模型,该模型学习可泛化的元特征,并通过从支持示例中生成特定于类的激活系数来自动重新加权新类的特征。

    89430编辑于 2023-08-24
  • 来自专栏贾志刚-OpenCV学堂

    全面对比WinCLIP与AnomalyCLIP样本异常检测VLM模型

    这两种方法在多样化的异常类型和产品类别中都展现出强大的泛化能力,但在模型复杂度、计算成本和检测精度方面做出了不同的权衡。 理解这些权衡对于从业者在实际检测系统中决定采用哪种方法至关重要 效果对比 使用四个标准指标对这两种方法进行评估: • 分类AUROC:图像级异常分类的ROC曲线下面积 • 分类AP:图像级分类的平均精度 • 分割AUROC:像素级异常定位性能 • 分割AUPRO:每区域重叠曲线下面积 总结 研究对比了WinCLIP与AnomalyCLIP两种方法,旨在帮助从业者为工业异常检测选择合适的技术方案。 而WinCLIP的优势则体现在真正的样本部署场景,以及面向细粒度定位的显式空间推理能力。 两种方法在柔性物体与复杂装配体的检测中仍存在局限性,这为未来研究指明了方向。总体而言,视觉语言模型已从根本上革新工业检测范式,通过自然语言即可实现缺陷识别,大幅降低了模型再训练成本。

    12810编辑于 2026-04-02
  • 来自专栏计算机视觉战队

    CVPR小样本检测:蒸馏&上下文助力小样本检测(代码已开源)

    2 背景 先前对Few-Shot物体检测的研究主要由两组组成。他们中的大多数采用基于元学习的框架来为特定于类的预测执行特征重新加权。 然而,由于小样本对象检测的挑战性,上述方法通常存在一些缺点。 其次,尽管尺度变化问题在之前的工作中得到了广泛的研究,但它仍然是小样本检测任务中的一个严重障碍。在少样本设置下,具有尺度感知改变的特征提取器倾向于过度拟合,导致基类和新类的性能下降。 Few-Shot Object Detection 小样本目标检测旨在仅提供一些带注释的训练示例,从新类别中检测目标。 Meta YOLO 最近,Meta YOLO使用YOLO v2设计了一种新颖的小样本检测模型,该模型学习可泛化的元特征,并通过从支持示例中生成特定于类的激活系数来自动重新加权新类的特征。

    1.8K20编辑于 2022-03-14
  • 来自专栏往期博文

    【目标检测】YOLO+DOTA:小样本检测策略

    在网上冲浪时,我发现了一种小样本检测策略:那就是把大分辨率的图片分割成小块进行训练,然后再输入大图进行检测。那么本篇博文就使用DOTA数据集来验证一下这种思路是否可行。 combinate = [np.array([x1, y1, x2, y2, x3, y3, x4, y4]), np.array([x2, y2, x3, y3, x4, y4, x1, y1 ]), np.array([x3, y3, x4, y4, x1, y1, x2, y2]), np.array([x4, y4, x1, y1, x2, y2, x3 + poly[(count * 2 + 2) % 10]) / 2) outpoly.append((poly[(count * 2 + 1) % 10] + poly 未分割前: 分割后: 可以看到区别还是相当明显的,分割之后尽管还有少部分目标漏检,大部分目标都能准确得检测出来。

    4K20编辑于 2022-09-22
  • 来自专栏算法进阶

    样本目标检测研究综述

    今天给大家带来一篇关于小样本目标检测的研究综述。本文从小样本目标检测任务和问题、学习策略、检测方法、数据集与实验等角度出发,对当前小样本目标检测的研究成果加以梳理和总结。 1 小样本目标检测概述 小样本目标检测(Few-shot Object Detection, FSOD)旨在通过少量标注样本实现对图像中目标的分类和定位。 2 从数据流向的角度展示了小样本目标检测及其相似任务之间的区别与联系 图2样本目标检测及其相似任务的区别与联系 2样本目标检测中的关键问题 小样本目标检测中的三个核心问题:过拟合、域偏移和数据及分布偏差 在训练过程中,模型通过支持集中的样本进行学习,然后在查询集中进行测试和评估。图3展示了 2-way 3-shot 任务的训练范式。 数据集的概况如表 2 所示。 表 2样本目标检测常用数据集及其划分方式 表3列出了在三种不同的基类/新类类别分割设定下,小样本目标检测典型方法在PASCALVOC数据集下的新类检测性能。

    3.1K30编辑于 2023-09-21
  • 对抗样本攻击检测与防御

    正是这种隐蔽性,使得对抗样本攻击具有很大的危害性,给人工智能系统的安全应用带来了严峻的挑战。 2. 对抗样本攻击的检测架构:筑牢第一道防线 要想有效应对对抗样本攻击,首先得能准确地检测出它们。 检测引擎:这是整个检测架构的 “核心大脑”。它会根据特征提取模块得到的特征,运用各种检测算法对数据进行分析和判断,确定输入的数据是不是对抗样本。 模型更新模块:对抗样本在不断地变化和进化,为了保证检测引擎的准确性,模型更新模块会根据检测的结果和新出现的对抗样本,对特征提取模块和检测引擎中的模型进行更新和优化,让整个检测架构始终保持较高的检测能力。 对抗样本攻击的检测流程:让 “伪装者” 无所遁形 有了完善的检测架构,还需要一套清晰的检测流程,才能让检测工作有条不紊地进行,确保每一个对抗样本都能被准确识别。下面就来看看对抗样本攻击的检测流程。 未来展望:对抗样本攻防的发展趋势 随着人工智能技术的不断发展,对抗样本攻击也会变得更加复杂和隐蔽,这就对检测与防御技术提出了更高的要求。 未来,对抗样本攻击的检测技术可能会更加智能化。

    54310编辑于 2025-08-16
  • 来自专栏贾志刚-OpenCV学堂

    薪资30W+|2026年掌握样本缺陷检测

    大模型技术已经进入下半场,从纯文本的LLM范式进化到更高级MLLM范式 样本缺陷检测 样本工业缺陷检测模型是当前工业AI领域的前沿研究方向,旨在通过多模态大模型的图像与文本提示输入结合,实现感知与认知模型融合 DINOv3、SAM2等视觉语言大模型(VLM)结构,掌握基于VLM的图像分类、对象检测、OCR识别、样本工业异常检测、异常分割、PCA主成分分析、小样本训练、知识蒸馏等主流VLM开发技术、掌握视觉语言模型与多模态模型的全栈开发技术 004-CLIP图像特征提取与相似比对 005-CLIP构建以文搜图与以图搜图 006-CLIP样本异常缺陷分类检测 007-CLIP样本异常缺陷分割检测 008-CLIP模型微调自定义正样本缺陷分割检测从训练到部署 第八章:DINO网络与应用 001-DINO系列网络模型详解 002-实战DINOv2样本图分类 003-样本DINOv2与DINOv3特征提取与分割 004-基于DINOv2特征的PCA分析 005-DINOv2样本异常缺陷检测 第九章:SAM网络与应用 001-SAM1到SAM3网络模型结构详解 002-SAM2实例分割与跟踪 第十章:VLM系列模型与应用 001-VML模型概述与典型架构

    13710编辑于 2026-04-02
  • 来自专栏云+分享

    目标检测 | ATSS,正负样本的选择决定检测性能

    IEEE/CVF conference on computer vision and pattern recognition}, pages={9759--9768}, year={2020} } 2. 归纳总结 Name Value 标签 #正负样本 #目标检测 数据集 MSCOCO 目的 通过实验发现Anchor-Base和Anchor-Free的区别在于正负样本定义,并提出了ATSS 方法 使用IoU 问题背景 论文指出单阶段Anchor-Based和Center-Based Anchor-Free检测算法的性能差异主要来自于正负样本的选择策略不同,基于此问题,作者提出了ATSS(Adaptive Training 排除这个因素后,现在两个算法的区别是: 1.正负样本定义; 图片 2.回归分支中从point回归还是从anchor回归;从point回归就是指的每个点预测距离4条边的距离模式,而从anchor回归是指的 参考文献 ATSS : 目标检测的自适应正负anchor选择,很扎实的trick | CVPR 2020 - 知乎 (zhihu.com)

    1.7K20编辑于 2022-09-02
  • 来自专栏数据派THU

    【CVPR2022】基于鲁棒区域特征生成的样本目标检测

    来源:专知本文为论文,建议阅读5分钟首次实现了同时针对可见目标类和不可见目标类的统一目标检测模型。 黄培亮,韩军伟,程德,张鼎文. 样本目标检旨在提升模型对训练阶段不可见目标类的检测能力。传统的样本学习模型在该任务环境下难以为未见目标生成具有足够类内多样性的区域特征,亦或是牺牲掉部分未见目标与图像背景的可区分性。 在本研究中,我们充分考虑到物体检测任务的独特性,提出利用训练图像所包含的丰富的前背景区域特征来同时保持未见目标特征的类内多样性和类间可区分性,首次实现了同时针对可见目标类和不可见目标类的统一目标检测模型 ,并提供了首个样本遥感目标检测的benchmark。

    1K30编辑于 2022-03-29
  • 来自专栏Sentieon

    加速体细胞突变检测分析流程-系列2(ctDNA等高深度样本

    Sentieon●体细胞变异检测-系列2Sentieon 致力于解决生物信息数据分析中的速度与准确度瓶颈,通过算法的深度优化和企业级的软件工程,大幅度提升NGS数据处理的效率、准确度和可靠性。 针对体细胞变异检测,Sentieon软件提供两个模块:TNscope和TNhaplotyer2。 TNscope:此模块使用Sentieon特有的算法,拥有更快的计算速度(提速10倍+)和更高的计算精度,对临床基因诊断样本尤其适用;TNhaplotyper2:此模块匹配Mutect2(现在匹配到4.1.9 图片图片ctDNA变异检测分析以下给出的步骤脚本,主要针对ctDNA和其他高深度测序的样本数据(2000-5000x depth, AF > 0.3%)第一步:Alignment# ********** Removal (Skip For Amplicon)# ****************************************** # 2a.

    42720编辑于 2023-07-27
  • 来自专栏贾志刚-OpenCV学堂

    Anomaly-OV | 基于多模态LLM实现样本异常检测与推理

    受人类在视觉检测中行为的启发,Anomaly-OV采用了一种“再看一眼”特征匹配机制,以帮助其大型语言模型自适应地选择并强调最可疑的异常视觉标记。 Anomaly-OV在检测与推理能力上相较先进通用模型实现了显著提升。我们同步公开了Anomaly-OV从工业缺陷检测到三维检测乃至医疗影像诊断的延伸应用成果,以供后续研究。 通过生成对视觉异常的精准描述与合理解释,我们的模型能够推断潜在成因、评估当前影响并提供改进建议,成为视觉检测领域可靠的辅助工具。 主要贡献包含两方面: • 我们构建了首个面向异常检测与推理的视觉指令微调数据集及评估基准; • 我们提出了该重要领域内首个具备最先进性能的专业视觉辅助系统。

    14510编辑于 2026-04-02
领券