我想在c#上通过ip实时播放视频和音频。音频和视频来自一个网络摄像头,将以rtp协议发送。我的想法是用n音频捕获音频,用g711对其进行编码,并将其发送到端口X上,从摄像头获取速度为20/25 fps的图像,做一些编码(还不知道是哪种)。发送到端口Y。我的问题是:这种方式对流媒体直播视频和音频是正确的吗?是否有一种方法可以将视频和音频合并到同一个数据包中,并将其发送到同一个端口?
发布于 2014-01-29 05:13:37
你的问题听起来不那么复杂,而且很容易解决。你有独立的音频和视频流,你想要将它们组合起来,并对其进行流,对吗?
最简单的方法是使用windows媒体编码器或adobe媒体编码器。Windows媒体编码器具有直接播放视频的附加功能,而不涉及流媒体服务器。您可以选择您的网络摄像机作为“源视频”,并选择任何麦克风作为“音频源”,windows媒体编码器将两者结合在一起,并为您创建一个流,任何人都可以现场观看,也可以推送到流媒体服务器进行中继广播。
链接到wme http://www.microsoft.com/en-in/download/details.aspx?id=17792
发布于 2014-01-26 09:49:07
这是一个明显的“建造或购买”的例子。我不会造这样的东西。它充满了技术缺陷,而且非常(非常)令人怀疑,如果一个开发人员,他可能是聪明的,甚至应该尝试从零开始实现这一点。最好是找到一个开放源码的解决方案,为您完成肮脏的工作。然后,您的问题将是次要的,并通过相应配置包来解决。
我脑海中浮现的是:how to embed vlc media player into my c# windows form app?
至少看看这条路,这可能是一个更快的方法来完成你的最终目标。
https://stackoverflow.com/questions/21361923
复制相似问题