我需要在Ubuntu16.04机器上创建虚拟摄像头和虚拟麦克风,以便通过我的web浏览器使用WebRTC在web应用程序中使用。
我需要从一个IP摄像头(RTSP流)向这两个虚拟设备提供视频和音频。在VLC中直接播放RTSP流可以很好地处理视频和音频。
为此,我使用video4linux2创建了一个/dev/video1 1。我能够将IP摄像头传送到/dev/video1 1。
ffmpeg -i rtsp://ip_address:554/流媒体/channels/101/ -f v4l2 /dev/视频1
如果我查看VLC播放器,我可以选择/dev/video1 1作为视频设备,但我只有"hw:0,0“作为音频设备,这是我内置的麦克风。
如何正确地将这样的RTSP流提供给虚拟摄像头和虚拟麦克风?
发布于 2017-04-22 23:49:26
你需要某种回环音频驱动程序。如果要在Alsa级别执行此操作,则可能会丢失snd-aloop模块。driver
如果您的目标目标支持Pulse音频,您可以添加一个空接收器并使用它的监视器源从它记录。
pactl load-module module-null-sink sink_name=video1然后,监视器源命名为video1.source。
https://wiki.archlinux.org/index.php/PulseAudio/Examples
然后,您需要添加来自FFmpeg的额外输出。这可能很简单,只需将类似于-f pulse "video1"的内容添加到现在的末尾即可。
https://stackoverflow.com/questions/43559297
复制相似问题