我正在为数字音频工作站开发一个在iOS上工作的体系结构(主要是,但也试图支持OS )。我正在慢慢地浏览几英里的苹果文档和他们的框架的参考资料。
我有使用DSP的经验,但iOS对我来说更新,有很多对象、教程(甚至是旧版本的iOS)和不同API的不同框架。--我只想确保在开始时选择正确的一个,或者将它们组合在一起。
体系结构的目标是:
我希望我没有错过任何东西,但这些是最重要的目标。
我的研究
我已经看过了大多数框架(但不是很详细),下面是我想出的。苹果列出了在iOS上使用音频的以下框架:
媒体播放器和AV基金会是太高级别的API,不允许直接样本访问.另一边的OpenAL无法录制音频。这就留下了音频工具箱和音频单元框架。这里解释了许多差异:What's the difference between all these audio frameworks?
据我所知,音频工具箱将是一条路,因为MIDI目前并不是必需的。但是对于更专业的控制,如录音、播放等,音频工具箱上的信息和教程非常少。
我的第一个问题:,什么是音频队列服务,它们属于什么框架?
最后一个问题是:
应该使用哪个框架来实现大多数预期目标?
您甚至可以建议框架、类的混合和匹配,但我恳请您解释您的答案,以及您将使用哪些类来更详细地实现目标。我鼓励尽可能高级别的API,但尽可能低级别的API才能实现目标。示例代码链接也是欢迎的。
非常感谢你的帮助。
发布于 2013-06-18 21:04:51
音频单元是最低级别的iOS音频API,音频队列是建立在该API之上的。音频单元将提供一个具有最低延迟的应用程序,从而尽可能接近实时处理。虽然它是一个C API,所以一个应用程序可能需要做一些自己的音频内存管理。
AVFoundation框架可以提供一个更容易访问音乐库资产的应用程序。
一个应用程序只能处理那些显式发布音频数据的应用程序,这些应用程序不包括音乐播放器应用程序,而是包括一些使用苹果应用程序间音频API和第三方Audiobus API的应用程序。
https://stackoverflow.com/questions/17174447
复制相似问题