假设有两个对等点与webRTC交换视频。现在,我需要将这两个流保存为中央服务器中的视频文件。是可以做到的实时吗?(存储/上传来自对等方的视频不是一种选择)。
我想建立一个3节点的webRTC连接,第3节点是服务器。这样,我就可以屏幕记录第三个节点的流,或者用其他方式保存它。但我不确定执行的可靠性/可行性。
这是针对移动应用程序的,我将避免任何涉及上传/保存的方法。
PS:我正在使用Agora.io进行视频会议.
发布于 2019-05-24 11:42:08
在我看来,您可以像唱片演示:https://webrtc.github.io/samples/src/content/getusermedia/record/一样这样做。
记录每个流到blobs,并使用websocket将它们推送到服务器上。
然后将blobs转换为webm文件或只添加一个视频
发布于 2019-05-22 13:07:19
Agora不提供开箱即用的录音,但它们确实为您提供了代码,以便您能够使用自己的服务器启动您自己的前提录音。Agora有在GitHub:https://github.com/AgoraIO/Basic-Recording上部署的代码和指令
按照其工作方式,一旦您设置了Agora,客户端将通过用户交互(按钮点击)或其他一些事件(即peer-joined或stream-subscribed__)触发记录启动,这将触发记录服务加入频道并记录流。一旦录制停止,_The服务将输出视频文件。
发布于 2021-05-04 05:45:25
您需要一个WebRTC媒体服务器。 WebRTC媒体服务器使支持更复杂的场景成为可能,WebRTC媒体服务器是充当WebRTC客户端但在服务器端运行的服务器。它们是我们想要采取行动的媒体的终止点。在WebRTC媒体服务器上执行的流行任务包括: 群调用、录音、广播和直播网关到其他网络/协议服务器端的机器学习云渲染(游戏或3D),冒险和坚强的心将去开发自己的WebRTC媒体服务器。大多数人会选择商业服务或开源服务。对于后者,请查看以下选择WebRTC开源媒体服务器框架的技巧。 在许多情况下,开发人员需要的是对组调用的支持,这几乎总是需要一个媒体服务器。在这种情况下,您需要决定是使用类(现在是旧的) MCU混合模型还是采用更被接受和现代的SFU路由模型。您还需要考虑WebRTC媒体服务器的大小大小。 为了记录WebRTC会话,您可以在客户端或服务器端这样做。在这两种情况下,您都需要一个服务器,但是在每种情况下,该服务器是什么以及它的工作方式将是非常不同的。 如果它是您想要的广播,那么您需要考虑您的WebRTC会话的广播大小。
https://stackoverflow.com/questions/56241312
复制相似问题