我正在尝试了解目前在Oculus或Samsung Gear VR等VR头盔中提供的360度视频是如何工作的。显然,他们使用的是全景视频(360度视频)的概念。我正在做一些测试,注意到原始视频的分辨率更大,并且在VR内部,最初显示了一个特殊的区域(面向眼睛),该区域位于视口内。用户还可以根据需要更改视图。
以下是原始360全景视频的示例:

这里是如何在Gear VR这样的VR头戴式耳机中看到它的(主视图):

现在我的问题是,是否有任何方法来检测原始视频的哪一部分实际上是在视口内?我的意思是,我们能检测到(几乎)正在观看的360视频的哪一部分吗?虚拟现实头盔,如Gear VR,Oculus,Unity3D,或任何其他虚拟现实相关工具,有没有提供任何接口来了解这一点,也许是使用一些传感器或其他信息?
我的信息有限,所以这方面的任何信息对我都是有用的。
发布于 2016-05-20 18:41:23
如果你的意思是播放器可以检测到球体的哪一部分在用户的视线范围内,那么答案是肯定的,因为播放器实际上必须对原始视频执行转换,以创建用户当时实际正在观看的视图。
它通过从设备传感器获取inout来实现这一点,例如,如果它在浏览器中显示,则获取键盘,并由此确定用户在任何给定时刻查看的位置。
基于此,播放器将对原始视频应用变换,以在屏幕上仅显示应该在用户视线中的视频部分。
如果你问的是“服务于”视频的服务器在任何给定时间是否知道用户的视线在哪里,那么答案是否定的,因为它只是服务于完整的360原始视频(无论如何对于大多数实现而言)。
玩家可以将分析结果报告给服务器,以指示用户视图并报告任何更改,但这将取决于每个玩家。肯定有一些公司已经强调了合作提供360视频分析的能力,或者建立在特定播放器的基础上。
https://stackoverflow.com/questions/37335708
复制相似问题