我有一个关于ARKit和ARCore的问题。
我正在开发一个应用程序与虚拟引擎相结合的增强现实。它将ARCore用于安卓手机,ARKit用于iOS设备。
现在,我观察到:我有一个虚拟世界,我可以很好地移动。但现在,我失去了跟踪能力(例如,我在看一堵白色的墙,或者我只是把手放在摄像机前),安卓-设备失去了跟踪和的方向。意味着整个世界都被困住了。如果我用iPhone来做这件事,我就失去了跟踪的能力。
我发现了类似的东西,它将ARKit与ARCore进行了比较。
For ARKit:
运动跟踪: ARKit可以参照摄像机捕捉到的真实物体,通过视觉惯性测定仪(VIO),对设备的定位进行直观、准确的跟踪。这使得设备能够捕获运动传感器数据,记录设备的实时位置.
For ARCore:
运动跟踪: ARCore跟踪和解释IMU (惯性测量单元)的数据,不像ARKit的VIO。不同的是,它还测量周围物体的形状、构造和特征,以检测和识别使用中的Android设备的正确位置和方向。
来源:https://www.itfirms.co/arkit-vs-arcore-how-they-compare-against-each-other/
在对ARKit运动跟踪的描述中,没有任何关于方向的内容。
有人能用其他的,也许很容易理解的话来解释为什么ARKit在这种情况下不失去定向能力吗?
提前感谢
发布于 2018-07-17 12:43:45
在技术和概念上,这两种方法是相同的。与文章所说的相反,
解释与VIO不同的惯性测量单元( IMU )数据
ARKit解释图像特征(视觉)和IMU数据(惯性数据),并将它们融合以获得位置随时间的变化(节理) ->视觉惯性焦距。
ARCore解释图像特征和IMU数据,并对它们进行融合以获得位置随时间的变化->视觉惯性测量法。
因此,方法和基本概念是相同的。不同之处在于实现。我认为,如果跟踪系统的视觉部分失败,这只是一个决定。苹果似乎已经决定继续使用IMU (它仍然可以跟踪方向),而谷歌则决定停止整个跟踪框架(也许你已经注意到,在你覆盖ARCore摄像头之后,你有大约1秒的时间跟踪方向的变化)。只有在超时之后,跟踪才会完全停止)
https://stackoverflow.com/questions/51377324
复制相似问题