我正在开发一个应用程序,用户可以录制一些音频(他们的声音),并应用到它的视觉效果。我正在使用FMOD来处理所有的音频,并添加音频效果和所有这些。我的问题是,有没有处理iOS音频可视化的API?我的想法是能够录制一些东西,然后有一个‘会说话的手’的记录动画。
我也在考虑能够显示记录的“可视化”,我知道你可以从FMOD中抓取波形信息和东西,但你如何使用这些数据来创建可视化?
谢谢。
发布于 2011-05-27 23:58:23
首先要做的是:没有你想要的库。我觉得这有点太具体了。
好消息是,这并不是很难做到--它只是让你的头脑处于正确的位置。
与其考虑声音,不如考虑其他东西,比如加速度计。如果我想让UIView响应加速度计,我可以非常简单地获取Z轴的输出值(在-1和1之间),并将其转换为屏幕上的坐标(例如,0到480 )。
如果我只是将加速度计的测量值直接插入到我的转换公式中,它可能会有点不稳定。UIView可能会到处弹来弹去。这是因为加速度计的测量可能会有很大的不同。因此,也许我可以添加一些简单的滤波器,使测量之间的变化更加渐进。
现在,这跟音频有什么关系?实际上,有一点。例如,如果您用Ampl幅值代替加速计,您可能会有一个根据音频的响度上下移动的UIView。您所需要做的就是编写一些内容,不断地将振幅值发送到您想要设置动画的UIView中。
然后你可以变得更复杂,通过拥有一个可以根据特定频率范围(也许是低音)移动或改变其位置/比例的视图。所以我想,也许如果你退后一步,想想你到底想要做什么动画,以响应什么参数,这对你来说可能会变得更容易。
https://stackoverflow.com/questions/6128837
复制相似问题