最近,我从多个二维视角对三维重建进行了一些研究。我所读到的大部分内容都集中在基本矩阵、极几何和其他理论原理上。假设有两幅图像,我知道如何计算每个2d点对应的3d点。
我的问题是:
我知道可以使用MATLAB或OpenCV,但是我没有找到任何关于如何做的讨论。
发布于 2016-03-18 22:50:43
检查视差图中的OpenCV。您可以用来生成深度图(类似于您从Kinect获得的深度地图,但显然不太准确)。视差图中的每个像素根据用于生成地图的两个帧之间的差异来表示到对象的距离。
有一个OpenCV示例中的示例,您可以在这里了解它是如何完成的。
至于3D数据的表示,我建议PCL (点云库)或任何其他与点云because...Well一起工作的库,这是现在的一种做法。点云允许应用于空间数据的各种算法(包括特征匹配、合并、转换等)。再加上生成网格的能力。例如,PCL至少有3种从点云生成网格的方法--如果我没记错的话( NURBS模块仍然是实验性的和错误的)。
https://stackoverflow.com/questions/36095303
复制相似问题