我使用示例原生android应用程序(apprtc)在android设备和浏览器之间传输视频。我想在android设备上录制本地流。为了清楚起见,用例如下:
1-用户从其浏览器连接到android设备。
2-Android设备开始向用户发送视频流,同时在本地录制视频流。
在过去的一周里,我一直在谷歌上搜索,但没有成功。到目前为止,我发现的是:
-This功能尚未在webrtc中实现。有关于视频格式的争论。
-There是一个名为RecordRTC的项目,可以做这样的事情。
RecordRTC看起来不错,但我需要在像apprtc这样的原生android应用程序中做到这一点。有没有办法做到这一点?
发布于 2016-07-15 00:47:55
您可以通过GLSurfaceView在安卓上使用WebRTC来显示来自摄像头的视频(本地流)或来自其他设备的视频(远程流)。因此,要记录本地流,您可以使用某些项目来记录来自GLSurfaceView的数据,例如gafrika、Intel media for mobile或everyplay。
https://stackoverflow.com/questions/23007213
复制相似问题