我在一个没有标记的增强现实应用程序的引擎中工作(也称为marketless AR),它使用从SURF算法获得的兴趣点来识别任何图像中的点,并使用这些点作为参考来绘制信息,但我不知道将2D信息(检测到的兴趣点)转换到3D模型以映射到3D坐标空间并将3D对象渲染到场景的最佳方法。有什么算法可以做到这一点吗?
发布于 2012-12-28 22:41:51
这是一个非常宽泛的问题。您需要在计算机视觉领域进行一些阅读,但简要地说,您将采用以下方法。你需要一个fully calibrated camera来描述相机和世界之间的关系。此模型允许您在图像中的点和世界中的3D线之间进行转换-请注意,如果不知道其深度,则无法获得实际的3D点,因为图像中的单个点可能是世界上许多点的投影。
https://stackoverflow.com/questions/14035106
复制相似问题