我无法使用MediaPlayer/VideoView来使RTSP在Android中工作。因此,我已经创建了一个客户端来与RTSP服务器交互,我已经成功地做到了这一点。我可以在Android的RTSP服务器(MySpace)上得到视频/音频帧。现在我想播放这些帧。我已经搜索了OpenCore接口来播放帧,但是没有得到任何接口。
我的调查:有一个类PlayerDriver.c,它创建了两个接收器,一个音频和另一个视频。
handleSetVideoSurface
handleSetAudioSink创建了两个PVPlayerDataSinkPVMFNode类型的对象。我怀疑这个类有一种方法可以将流作为输入,但我没有得到这个类的定义。
你能给我推荐一下我需要学习的课程吗?
发布于 2010-05-31 09:46:12
在external/opencore/engines/player/include/pv_datasinkpvmfnode.h.中定义了PVPlayerDataSinkPVMFNode但我不认为这是你需要的。PlayerDriver类正在使用此类配置视频输出,即要显示到的表面。输入仍然是流URL或文件。
https://stackoverflow.com/questions/1233812
复制相似问题