我正在用深度相机探测一个矩形。此时,我正在努力使用NFOV深度相机来生成选定像素的精确3d坐标。我在测试板上选择了两个点,使用深度2d将它们转换为彩色3d Kinect-SDK C#包装函数,计算接收坐标之间的距离,并测量选定的现实点之间的距离(918 C#),对此进行了测试。在2.7米的距离,我得到2厘米的误差在图像中心,而在角落的误差高达6厘米。
转换函数不应该是失真的吗?我是否错过了接收准确数据的关键步骤?这可能是别的什么吗?
谢谢你的帮助!
发布于 2020-08-27 01:40:23
增加Git问题的答复:
以下几点:
,
最后,深度相机倾斜6度相对于colot相机应该不重要。摄像机标定的本质是针对每台摄像机的畸变进行标定,并对外场进行标定以考虑摄像机的力学特性。
https://stackoverflow.com/questions/63260503
复制相似问题