在过去的一个月里,我一直在研究从现场视频中重建3D的方法。在我看来,唯一的选择是使用第三方服务,比如Agisoft或Autodesk Capture。但是,在ARKit 2.0发布之后,我看到了这个推特。在这条推文中,Tim声称他使用ARKit摄影测量技术创建了三维模型。据我所知这是不可能的。我只使用ARKit扫描三维物体和创建点云。实际上,这正是ARKit文档显示所做的:
ARReferenceObject只包含ARKit识别现实世界对象所需的空间特征信息,而不是该对象的可显示的三维重建。
如果Tim所说的是真的,我如何使用ARKit创建三维模型使用摄影测量?
发布于 2020-06-28 11:06:18
苹果RealityKit 2.0获得了对象捕获API。它为我们提供了期待已久的摄影测量工具。输出时得到具有相应纹理的USDZ模型。
ARKit 6.0 | 5.0 | 4.0允许您在使用带有LiDAR扫描仪的设备时实时生成LiDAR。场景重建以纳秒的速度进行。距离可达5米(有时甚至更长)。要了解详细信息,请看这段视频。
LiDAR扫描仪的一个关键特性是:它帮助您消除在跟踪和场景理解阶段遇到的日常问题。例如:在使用LiDAR进行跟踪时,不需要物理运动和高质量的照明条件。
当重建场景准备就绪时,你就可以得到一个带有Occlusion Material的多边形几何图形,可以立即用于目标遮挡、物理模拟和光估计。
除了上面的ARKit 6/5/4提供了深度API来管理一个高质量的深度通道,它现在运行在60 fps。有关更多信息,请阅读本网页。
https://stackoverflow.com/questions/51276229
复制相似问题