我面临着3D重建的问题,因为我是这个领域的新手。我有一些不同视图的深度图(点云),我想用它们来重建场景,以获得像使用kinect融合一样的效果。是否有任何文件的源代码来解决这个问题。或者任何关于这个问题的想法。PS:点云存储为(x,y,z)文件,您可以检查here以获取数据。非常感谢。
发布于 2018-08-04 09:23:21
正如你所说的,你是这个领域的新手,我将努力保持这个高水平。如果有什么不清楚的地方,请发表意见。
您所指的管道有三个关键阶段:
集成阶段从当前姿势下的深度图(Kinect图像)中获取unprojected points,并将它们“集成”到空间数据结构(体素体积,如Signed Distance Function或分层结构,如Octree)中,通常通过维护每个体素的运行平均值。
渲染阶段采用当前帧的反向姿势,并生成当前视图中模型的可见部分的图像。对于常用的体积表示,这是由Raycasting实现的。此阶段的输出提供了下一个活动帧注册到的模型的点(下一个阶段)。
姿态估计阶段将先前提取的模型点注册到实况帧的那些点。这通常是通过Iterative Closest Point算法实现的。
关于相关文献,我建议以以下论文为起点。
KinectFusion: Real-Time Dense Surface Mapping and Tracking
Real-time 3D Reconstruction at Scale using Voxel Hashing
Very High Frame Rate Volumetric Integration of Depth Images on Mobile Devices
https://stackoverflow.com/questions/43302807
复制相似问题