要使Linux设备(Raspberry Pi)像另一台计算机的UVC设备那样运行,需要什么?从本质上说,我想使用ffmpeg的输出来表现为另一台计算机的网络摄像头输入。
发布于 2017-11-05 06:04:45
要使Linux设备(Raspberry Pi)像另一台计算机的UVC设备那样运行,需要什么?
这实际上可以在没有自定义内核的Pi上完成。在为OTG支持在dtoverlay=dwc2中设置config.txt之后,重新启动并运行:
sudo modprobe g_webcam
./uvc-gadget -d这是通过流合成数据使你的Pi表现为网络摄像头的第一步,你可以在Skype、FaceTime或其他网络摄像头查看器中测试这些数据。这里是uvc-gadget用户空间程序的源代码,它有它通常推荐的修补程序。
从本质上说,我想使用ffmpeg的输出来表现为另一台计算机的网络摄像头输入。
这部分可以更多的涉及。现有的uvc小工具程序应该可以播放通过GStreamer录制的摄像头录音,这在这个职位中有更多的讨论。对于FFmpeg的任意输入,您可能必须将自己的输出插件代码与uvc小工具集成起来。
如果您使用压缩:注意,FFmpeg已经可以以各种容器格式输出mjpeg,但该数据仍然必须转换为UVC有效载荷mjpeg格式。
发布于 2017-06-08 14:48:43
您将大致需要一个USB能力的RPi,RPi 3不能做到这一点。然后,您将需要一个自定义的内核驱动程序来模拟真实设备的UVC驱动程序,我不知道有任何项目可以直接这样做。
我能想到的最简单的方法是通过RTMP流记录的图像,而不是试图模仿UVC,因为这不是一个小壮举。
https://stackoverflow.com/questions/42828356
复制相似问题