我有一个带有iPhone的跟踪机器人。它有两部相机--一部来自iPhone,另一部是独立摄像头。该手机有全球定位系统,陀螺仪,加速度计和磁强计,传感器融合分离用户感生加速度和重力。手机可以探测到自己在太空中的态度。我想教机器人,至少要避免墙壁,如果机器人撞到他们之前。
有人能建议这样的机器人完成一个可视化同时定位和映射的启动项目吗?我非常感谢目标-c实现,因为我在OpenSlam.org上看到了一些用C/C++编写的项目,但这些不是我最强大的编程语言。
我没有获得激光测距仪,所以任何文章,关键字或学术论文的视觉SLAM也会有所帮助。
谢谢您的投入!
发布于 2013-07-25 08:46:05
我可以建议你看看FAB-MAP,它在OpenCV中有一个实现。
我正在做我的硕士论文,关于视觉障碍,特别是关于循环关闭问题。
它在C++中,但是如果您遵循这些示例,您会发现它非常容易使用。
https://stackoverflow.com/questions/11037903
复制相似问题