我不确定音频单元是否可以在iPhone上的流音频场景中作为编解码器使用。
我在不同的地方读到过它可以做到,但我还没有看到任何示例或适当的文档。相反,我发现大多数发布的应用都使用了ffmpeg和libmms。
感谢你能给我的任何帮助。
发布于 2010-11-03 17:25:16
再看一遍,似乎iOS只允许内置音频单元,不像Mac。内置音频单元描述在“iOS的音频单元托管指南”->“使用特定的音频单元”,这可以在线here找到。
发布于 2011-11-15 20:20:39
音频单元是非常低级的,如果你想做一些繁重的音频处理,比如实时音频效果,它是很有用的。据我所知,Audio Units不支持wma音频编解码器。为此,您必须使用FFmpeg库。
因为FFmpeg也支持彩信,所以没有必要使用另一个库,比如libmms来连接彩信音频流。您可以使用FFmpeg连接彩信音频流,如下所示:
const char *url = "mmst://somemmsurlhere.com";
avformat_open_input(formatCtx, url, NULL, NULL);对于音频数据的解码,可以使用avcodec_decode_audio3函数。一旦您准备好解码的音频数据,我建议您使用AudioQueue框架进行回放。AudioQueue的工作方式是调用您定义的回调函数来请求音频数据。其中一个回调函数是AudioQueueOutputCallback,您可以像这样传递解码后的音频数据:
- (void)handlePlayCallback:(AudioQueueRef) inAudioQueue buffer:(AudioQueueBufferRef) inBuffer {
// copy decoded audio data to inBuffer->mAudioData
// and set the size of the copied data like this
// inBuffer->mAudioDataByteSize = data_written
if(inBuffer->mAudioDataByteSize > 0) {
AudioQueueEnqueueBuffer(inAudioQueue, inBuffer, 0, NULL);
}
}https://stackoverflow.com/questions/2445918
复制相似问题