我想将rgb帧(实时)数据作为视频流传输到浏览器(chrome/firefox)。
因此,我完成了rgb -> yuv -> yuv 12-> vp8转换。我可以在本地播放vp8视频,看上去不错。
现在,我需要能够将这些数据提供给webrtc,以便其他“客户机”能够看到这一点。
这是可行的吗?
我本来打算用vp8包一个webm视频文件,但不写实际的文件长度,因为我不知道它的长度,因为它是一个实时流,在浏览器上创建一个标记并开始输入数据。(我以前用Theora做过这件事,“假装流,当然有点慢,是TCP,但它可以延迟)。
或者我要把数据提供给webrtc。我甚至不知道api是否允许这样的东西。我可能需要破译一下。
进程A创建一个NxM rgb视频并将其写入其缓冲区。Process通过IPC将该缓冲区读取到VP8,进程B在webm或webRtc中使用VP8将该缓冲区发送给浏览器。
发布于 2013-12-19 10:54:29
就我所能找到的研究相关情况而言,这是不可能的。视频只能来自系统上配置的设备(摄像头、音频等)。我相信这是有可能的,在一个提议的规范草案,我读了一段时间前,但我们还没有到那里。我知道他们正在致力于允许从网络audioAPI访问,但我不确定目前的状况。
https://stackoverflow.com/questions/19188951
复制相似问题