我想解决一个新项目,在这个项目中,我使用Tensorflow对象检测API来检测欧洲托盘(eg. pic)。
我的最终目标是知道我离托盘有多远,以及我与托盘的相对位置。因此,我考虑首先检测来自kinect摄像头的RGB源中的欧元托盘,然后使用其3D功能来获得到托盘的距离。
但是我该如何确定托盘的相对位置呢?我可以创建不同的类,例如一个是“前视图铺设托盘”,另一个是Side view laying pallet等,但我认为为了准确起见,我需要为每个类提供相当多的图片才能有效?比如每节课200块?
因为我的猜测是没有这样的标签数据集,但这是一个相当痛苦的我自己创建。
我能想到的另一种方法是,如果我用分段而不是边界框来标记我的托盘,也许还有另一种方法来找出我与托盘的相对位置?我自己从来没有做过语义分割标记,但有谁能说出我可以使用的好程序吗?
我希望有人能帮我指出正确的方向。任何帮助都将不胜感激。
发布于 2018-03-11 01:15:26
一些想法:假设分类器的检测和分割有效,那么可以尝试边缘/线条等特征检测,以获得有关其方向(边界框)的线索。
当然,对于简单的特征检测,这将是棘手的,因为有非常不同的表面(木材,泥土),背景和照明。
此外,“无标记跟踪”(增强现实中的一个主题)和“装箱”(实际应用于自动化行业)可能是类似问题的关键字,尽管您可能不是从一堆杂乱的托盘开始的。
https://stackoverflow.com/questions/49211307
复制相似问题