为提升仓库中负责分拣、抓取和打包产品的机器人性能,某中心公开发布了在工业产品分拣场景中捕获的最大规模图像数据集。此前最大的工业图像数据集仅包含约100个对象,而名为ARMBench的该数据集则包含了超过190,000个对象。因此,该数据集可用于训练“抓取和放置”机器人,使其能更好地适应新产品和新场景。
我们在一篇论文中描述了ARMBench,该论文将于今年春季晚些时候在国际机器人与自动化会议(ICRA)上展示。
收集ARMBench图像的场景涉及一个机械臂,它必须从装满物品的料箱中取出单个物品,并将其转移到传送带上的托盘中。在机器人系统背景下,物品的多样性、其摆放配置以及相互作用使得这项任务极具挑战性。
ARMBench包含三个独立任务的图像集:(1) 物体分割,即识别同一料箱中不同产品的边界;(2) 物体识别,即确定参考数据库中的哪张产品图像与图像中高亮显示的产品相匹配;(3) 缺陷检测,即判断机器人是否出现错误,例如一次抓取了多个物品或在转移过程中损坏了物品。
数据集中的图像分为三类:
仓库环境中对缺陷检测的严格精度要求,推动了对图像分类、异常检测以及视频中缺陷事件检测等多项关键计算机视觉技术的探索和改进。
在我们的论文中,我们描述了为ARMBench任务构建模型所采用的几种方法,并报告了我们的模型在这些任务上的性能,以便为其他研究人员提供性能基准。
我们计划继续扩展ARMBench数据集中的图像和视频数量以及它们描绘的产品范围。我们希望ARMBench能够有助于提升机器人的实用性,从而减轻仓库工作人员(例如某中心配送中心的数十万员工)的重复性任务负担。
我们还希望ARMBench数据的规模、多样性及其注释质量,能使其对训练其他类型的计算机视觉模型(不仅仅是那些帮助控制仓库机器人的模型)也有用。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。