首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >iPhone机器人视觉SLAM算法的实现

iPhone机器人视觉SLAM算法的实现
EN

Stack Overflow用户
提问于 2012-06-14 16:59:13
回答 1查看 1.2K关注 0票数 3

我有一个带有iPhone的跟踪机器人。它有两部相机--一部来自iPhone,另一部是独立摄像头。该手机有全球定位系统,陀螺仪,加速度计和磁强计,传感器融合分离用户感生加速度和重力。手机可以探测到自己在太空中的态度。我想教机器人,至少要避免墙壁,如果机器人撞到他们之前。

有人能建议这样的机器人完成一个可视化同时定位和映射的启动项目吗?我非常感谢目标-c实现,因为我在OpenSlam.org上看到了一些用C/C++编写的项目,但这些不是我最强大的编程语言。

我没有获得激光测距仪,所以任何文章,关键字或学术论文的视觉SLAM也会有所帮助。

谢谢您的投入!

EN

回答 1

Stack Overflow用户

发布于 2013-07-25 08:46:05

我可以建议你看看FAB-MAP,它在OpenCV中有一个实现。

我正在做我的硕士论文,关于视觉障碍,特别是关于循环关闭问题。

它在C++中,但是如果您遵循这些示例,您会发现它非常容易使用。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/11037903

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档