首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏JNing的专栏

    论文阅读: RetinaNet

    并将该网络结构起名RetinaNet: ? 文章也对于 γγ\gamma 的取值做了一番实验: ? Loss FL(pt)=−(1−pt)γlog(pt)FL(pt)=−(1−pt)γlog⁡(pt) FL(p_t) = -(1-p_t)^\gamma \log(p_t) new network:RetinaNet RetinaNet = FPN + sub-network + FL Note: RetinaNet简单而十分强大,以至于成为了当下最佳(accuracy/speed/complexity trade-off RetinaNet的detector部分是两条平行pipe-line,且 设计相同 (除了尾部的output不一样) 但 参数不共享 (Faster R-CNN中第一层的参数是共享的) 。 RetinaNet就是一个FPN-based的one-stage detector,靠着最后面的focal loss来解决由于过量background而引起的类别不平衡。

    1.8K30发布于 2018-09-27
  • 来自专栏用户9703952的专栏

    RetinaNet网络详解

    摘要 Retinanet 是作者 Tsung-Yi Lin 和 Kaiming He(四作) 于 2018 年发表的论文 Focal Loss for Dense Object Detection. 3,网络架构 retinanet 的网络架构图如下所示。 注意:在 RetinaNet 的 FPN 模块中只包括卷积,不包括 BN 和 ReLU。 3.3,Head Head 即预测头网络。 Retinanet 的 neck 输出 5 个分支,即输出 5 个特征图。 RetinaNet 论文和代码详解 轻松掌握 MMDetection 中常用算法(一):RetinaNet 及配置详解

    60210编辑于 2025-02-04
  • 来自专栏文鹃阁

    mmdetection之RetinaNet注释详解

    preface 本文记录 mmdetection 对 RetinaNet 训练的流程,包括标签获取,anchor 生成,前向训练,以及各步骤中 tensor 的形状,仅供复习用处。 =num_total_samples) return loss_cls, loss_bbox get_anchors 这里通过每一层的 FPN 特征大小来生成每一层对应的 anchor,在 RetinaNet RetinaNet 选用的是一般的 MaxIoUAssigner,是根据 anchor 和 gt_bboxes 的 IoU 进行匹配的 assigner=dict( type='MaxIoUAssigner = bboxes1[..., :4] return bbox_overlaps(bboxes1, bboxes2, mode, is_aligned) sampler.sample RetinaNet self.pos_gt_labels = None bbox_coder.encode & bbox2delta 这个是从 Faster RCNN 开始就祖传的 box 编码,RetinaNet

    1.4K30编辑于 2022-09-02
  • 来自专栏贾志刚-OpenCV学堂

    TorchVision对象检测RetinaNet推理演示

    torchvision对象检测介绍 Pytorch1.11版本以上支持Torchvision高版本支持以下对象检测模型的迁移学习: - Faster-RCNN- Mask-RCNN- FCOS- RetinaNet KeyPointsRCNN 其中基于COCO的预训练模型mAP对应关系如下: 最近一段时间本人已经全部亲测,都可以转换为ONNX格式模型,都可以支持ONNXRUNTIME框架的Python版本与C++版本推理,本文以RetinaNet RetinaNet转ONNX 把模型转换为ONNX格式,Pytorch是原生支持的,只需要把通过torch.onnx.export接口,填上相关的参数,然后直接运行就可以生成ONNX模型文件。 相关的转换代码如下: model = tv.models.detection.retinanet_resnet50_fpn(pretrained=True) dummy_input = torch.randn 模型转换之后,可以直接查看模型的输入与输出结构,图示如下: RetinaNet的ONNX格式推理 基于Python版本的ONNXRUNTIME完成推理演示,这个跟我之前写过一篇文章Faster-RCNN

    1.1K20编辑于 2022-10-10
  • 来自专栏AI科技评论

    使用 RetinaNet 进行航空影像目标检测

    (右边) 使用RetinaNet进行车辆检测(以绿色框注释) 使用RetinaNet检测汽车和游泳池 介绍 出于税收评估的目的,通常情况下,调查是在实地进行的。 Retinanet 我们将使用 Fizyr实现 Keras implementation of RetinaNet。 下面的脚本将安装RetinaNet和其他必需的包。 这个AMI预装了keras-retinanet和其他必需的包。你可以在使用 workon retinanet 命令激活RetinaNet的虚拟环境之后开始使用该模型。 模型的训练与评估 至此,数据集和RetinaNet项目代码及所需环境已经准备完成,让我们继续在该数据集上训练RetinaNet模型吧。

    2.6K10发布于 2019-08-23
  • 来自专栏机器学习初学者精选文章

    【深度学习】RetinaNet 代码完全解析

    RetinaNet凭借结构精简,清晰明了、可扩展性强、效果优秀,成为了很多算法的baseline。 本文不去过多从理论分析focalloss的机制,从代码角度解析RetinaNet的实现过程,尤其是anchor生成与匹配、loss计算过程。 论文链接: https://arxiv.org/abs/1708.02002 参考代码链接: https://github.com/yhenon/pytorch-retinanet 网络结构 网络结构非常清晰明了 因为retinanet认为coco数据集按照此策略,匹配不到的情况非常少。 结语 RetinaNet是一个结构非常清晰的目标检测框架,backbone以及neck的FPN非常容易更换掉,head的定义也非常简单。

    1.6K30发布于 2020-12-11
  • 来自专栏CVer

    Focal Loss和它背后的男人RetinaNet

    但是怕是很多人会不知道这篇论文中所提出的one stage目标检测模型RetinaNet,这也难怪,就连论文里面也说了RetinaNet模型层面没有大的创新,模型效果主要靠Focal Loss。 RetinaNet作为RCNN系中one stage检测模型的代表,我觉得依然有学习研究的价值,这不仅会让你加深对RCNN系模型的理解,而且有利于学习后面新的模型,毕竟后面很多模型都是借鉴了RetinaNet RetinaNet可以看成RPN的多分类升级版,和RPN一样,RetinaNet的backbone也是采用FPN,anchor机制也是类似的,毕竟都属于RCNN系列作品。 这样RetinaNet的backbone得到特征也是5个level,分别为 ,其stride分别为 。一点题外话就是FCOS的backbone也是取 ,也算是借鉴了RetinaNet。 RPN中设定的两个阈值为 ,而RetinaNet设定的阈值为 。

    1.1K30发布于 2020-09-23
  • 来自专栏晓飞的算法工程笔记

    目标检测 | RetinaNet:Focal Loss for Dense Object Detection

    同时,基于FPN设计了RetinaNet,在精度和速度上都有不俗的表现 论文:Focal Loss for Dense Object Detection [1240] 论文地址:https://arxiv.org 反之,置信度低的类别则得到大的权重 [1240] 设计了一个简单的one-stage检测器RetinaNet来演示focal loss的有效性。 在样本不平衡情况下,这种方法对于提高focal loss和 cross entropy训练稳定性有很大帮助 RetinaNet Detector *** Architecture [1240]   RetinaNet 大尺寸的RetinaNet比大部分的two-stage性能要好,而且速度也更快 Comparison to State of the Art [1240]   与当前的主流one-stage算法对比,RetinaNet 另外,论文设计了one-stage检测器RetinaNet并给出了相当充足的实验结果 创作不易,未经允许不得转载~

    1K00发布于 2020-01-24
  • 来自专栏GiantPandaCV

    目标检测算法之RetinaNet(引入Focal Loss)

    RetinaNet 说完了Focal Loss就回到文章RetinaNet,Focal Loss与ResNet-101-FPN backbone结合就构成了RetinaNet(one-stage检测器) ,RetinaNet在COCO test-dev上达到39.1mAP,速度为5FPS。 下图展示了RetinaNet的网络结构: ? 训练RetinaNet时有几个值得注意的关键点: 训练时FPN每一级的所有example都被用于计算Focal Loss,loss值加到一起用来训练。 Table2表示RetinaNet和One-Stage检测器的比较,可以看到RetinaNet也是毫不顺色的。 ? ? 代码实现 keras版本:https://github.com/fizyr/keras-retinanet pytorch版本: https://github.com/yhenon/pytorch-retinanet

    2.6K10发布于 2019-12-04
  • 来自专栏机器学习从入门到成神

    Keras-RetinaNet训练自己的数据详细教程

    (当然,最好就是有相应版本的完整C++) 第二部分:数据准备 (1)在keras-retinanet-master/keras_retinanet/文件夹下面新建一个文件夹CSV用来存放自己制作的数据集 检查数据可以使用以下命令: python keras_retinanet/bin/debug.py csv keras_retinanet/CSV/train_annotations.csv keras_retinanet ', type=int, default=1333) 第三部分:模型训练 模型训练可以使用以下命令: python keras_retinanet/bin/train.py csv keras_retinanet /CSV/train_annotations.csv keras_retinanet/CSV/classes.csv --val-annotations keras_retinanet/CSV/val_annotations.csv 多卡训练可用如下命令: python keras_retinanet/bin/train.py --multi-gpu-force --multi-gpu 2 --batch-size 2 csv keras_retinanet

    2.6K20发布于 2019-03-15
  • 来自专栏贾志刚-OpenCV学堂

    Pytoorch轻松学 – RetinaNet自定义对象检测

    点击上方蓝字关注我们 微信公众号:OpenCV学堂 关注获取更多计算机视觉与深度学习知识 RetinaNet网络介绍 2017发布,实现了一阶段网络首次在精度方面超过二阶段网络的经典网络,作者最大的一个创新就是在训练损失函数方面 论文中提出的感知损失函数如下: 最终RetinaNet网络结构如下: 数据集准备与制作 自己百度收集了一个无人机与飞鸟的数据集,其中训练集270张图像,测试集26张图像。 运行下面界面如下: 总计训练了25个轮次以后,发现效果已经是相当的不错了,直接导出ONNX格式RetinaNet模型文件。 相关的转换代码如下: model = tv.models.detection.retinanet_resnet50_fpn(pretrained=True) dummy_input = torch.randn dummy_input) im = torch.zeros(1, 3, 1333, 800).to("cpu") torch.onnx.export(model, im, "retinanet_resnet50

    41220编辑于 2023-11-15
  • 来自专栏计算机视觉理论及其实现

    ModuleNotFoundError: No module named ‘keras_retinanet.utils.compute_overlap‘

    问题:在调用keras_retinanet 的时候提示上面错误? 解决思路:1、把keras_retinanet放入site-packages里面,未能解决问题参考:成功解决ModuleNotFoundError: No module named 'keras_retinanet.utils.compute_overlap 这里的setup.py文件即可进行转换,地址:https://github.com/fizyr/keras-retinanet简单点,把上面的项目全部拉到本地,然后到对应setup.py 路径下,执行python

    1.1K40编辑于 2022-09-02
  • MMDetection学习系列(3)——RetinaNet深度探索与实战指南

    RetinaNet作为一种创新的目标检测算法,自推出以来一直备受关注,尤其是在面对类别不平衡问题时,展示了出色的性能。在这篇文章中,我们将详细解析RetinaNet模型的工作原理、优势及其应用。 RetinaNet模型介绍RetinaNet是由Facebook AI Research团队在2017年提出的一种目标检测算法。 Focal LossFocal Loss是RetinaNet的核心创新之一。 RetinaNet能够有效应对类别不平衡的问题,并在多尺度检测中提供精度。应用代码:以下是使用RetinaNet进行工业质检中瑕疵检测的简单代码示例,基于MMDetection框架。 /retinanet_r50_fpn_1x_coco.py' # 使用MMDetection预训练模型checkpoint_file = 'work_dirs/retinanet_r50_fpn_1x_coco

    1.3K10编辑于 2025-01-16
  • 来自专栏软件研发

    解决ModuleNotFoundError: No module named keras_retinanet.utils.compute_overlap

    如果你已经确认了以上两点,并且错误仍然存在,那么可能是由于安装的Keras-RetinaNet版本较旧或不完整导致的。在这种情况下,你可以尝试更新或重新安装​​keras_retinanet​​库。 keras_retinanet库介绍Keras-RetinaNet是一个基于Keras框架实现的目标检测库,它使用RetinaNet算法来进行物体检测。 RetinaNet是一种经典的单阶段目标检测算法,以其高召回率和准确性而闻名。 Keras-RetinaNet库提供了一套简单易用的API,使得使用RetinaNet算法进行物体检测变得非常方便。 下面是一些Keras-RetinaNet库的特性和功能:特性高性能:RetinaNet算法在目标检测任务上具有很高的准确性和召回率,适用于各种不同的应用场景。 总之,Keras-RetinaNet库是一个功能强大且易于使用的目标检测库,它使得使用RetinaNet算法进行物体检测变得轻松愉快。

    1.7K70编辑于 2023-10-31
  • 来自专栏相约机器人

    开源OCR文本检测器,基于TextBoxes++和RetinaNet

    本文介绍Github上的一个开源文本定位组件Text_Detector,它使用了RetinaNet的结构和textboxes++中的一些技术。 本文介绍一个开源文本位置探测器Text_Detector,它的Github地址为: https://github.com/qjadud1994/Text_Detector Text_Detector使用了RetinaNet 和textboxes++中的一些技术: RetinaNet: https://arxiv.org/pdf/1708.02002.pdf textboxes++: https://arxiv.org/pdf

    1.8K20发布于 2019-11-18
  • 来自专栏贾志刚-OpenCV学堂

    Pytorch轻松学-RetinaNet模型导出与C++部署

    微信公众号:OpenCV学堂 RetinaNet模型导出 在Pytorch的torchvision框架中支持对象检测模型主要包括: -SSD -Faster-RCNN -Mask-RCNN -FCOS -RetinaNet -KeyPointRCNN 亲测以上模型除了SSD导出ONNX格式无法被ONNXRUNTIME、OpenVINO2022解析之外,其他模型导出均可正常加载部署并推理使用。 RetinaNet支持自定义模型训练,这个我已经集成到OpenMV工具软件中,准备好数据集支持一键零代码训练自定义数据,导出ONNX模型。 单独导出RetinaNet模型为ONNX的脚本如下: model = tv.models.detection.retinanet_resnet50_fpn(pretrained=True) dummy_input 01 版本兼容性问题 通过Pytorch1.7.1导出RetinaNet的ONNX模型可以部署到OpenVINO2022上正确推理,但是当我升级Pytorch版本从1.71到1.10版本之后,同样脚本导出的

    1.4K40编辑于 2023-01-04
  • 来自专栏AI算法修炼营

    目标检测经典工作:RetinaNet和它背后的Focal Loss

    RetinaNet 为了验证Focal Loss的效果,何凯明等人还提出了一个一阶物体检测结构RetinaNet,其结构如下图所示。 △ RetinaNet框架 对于RetinaNet的网络结构,有以下5个细节: (1)在Backbone部分,RetinaNet利用ResNet与FPN构建了一个多尺度特征的特征金字塔。 这样RetinaNet的backbone得到特征也是5个level,分别为,其stride分别为。一点题外话就是FCOS的backbone也是取,也算是借鉴了RetinaNet。 △ RetinaNet与其他模型在COCO数据集上的检测精度 ? △ RetinaNet与其他单阶段模型的速度对比 最后总结一下RetinaNet与其它同类模型的对比: 相比RPN,前面已经说过RetinaNet可以看成RPN的多分类升级版,backbone和FPN设置基本一样

    1.8K20发布于 2020-05-08
  • 来自专栏机器学习算法与Python学习

    Github | 基于RetinaNet的半自动图像标记工具

    本库的作者 Viraj Mavani,提供了一个新的图像注释工具,该工具包含一个名为 RetinaNet 的现有最先进物体检测模型,来显示并注释常用的 80 个对象类的建议,以此来减少开发者的负担。

    1.3K20发布于 2019-10-28
  • 来自专栏AI科技评论

    RetinaNet在航空图像行人检测中的应用

    RetinaNet是最著名的单级目标检测器,在本文中,我将在斯坦福无人机数据集的行人和骑自行车者的航空图像上测试RetinaNet。 我们来看下面的示例图像。 关于RetinaNet背后的理论,请参考[1]。我的代码可以在Github上下载[2]。 训练RetinaNet 为了训练RetinaNet,我在Keras使用了keras-retinanet的代码实现[3],它的帮助文档非常好,运行起来没有任何错误。 以 RetinaNet 所需的格式生成标注。RetinaNet 要求所有标注都采用该格式。 我大概花了一晚上的时间训练 RetinaNet,而训练出的模型性能还不错。接下来我准备探索如何进一步调整RetinaNet 架构,在航拍物体检测中能够获得足够高的精度。

    2.3K30发布于 2019-08-28
  • 来自专栏简书专栏

    目标检测第6步-使用keras版RetinaNet训练

    致谢声明 1.本文学习fizyr的github工程《keras-retinanet》,此github工程链接:https://github.com/fizyr/keras-retinanet 此链接中已经具备充分且详细的工程使用指导 2.2 下载并安装keras_retinanet库 github工程网页链接:https://github.com/fizyr/keras-retinanet 选择Download ZIP下载工程压缩文件 keras-retinanet-master.zip,如下图所示: ? image.png 把压缩文件keras-retinanet-master.zip复制到桌面的文件夹keras_RetinaNet中,并选择解压到当前文件夹。 出现下图红色箭头标记处所示信息,则表示已经成功安装keras_retinanet库。

    3.4K11发布于 2019-04-18
领券