我目前正在阅读MSDN的文档,以便将流呈现给音频渲染器。或者换句话说,播放我从麦克风捕获的数据。
http://msdn.microsoft.com/en-us/library/dd316756%28v=vs.85%29.aspx
此示例提供了示例。
我现在的问题是我不能真正理解项目流程。我目前有一个不同的类来存储我从捕获过程中获得的以下参数。当程序从麦克风捕获流式音频数据时,这些参数将不断重写。
BYTE data;
UINT32 bufferframecount;
DWORD flag;
WAVEFORMATEX *pwfx;我的问题是,loadData()函数到底是如何工作的。它是否应该从捕获进程中获取我正在编写的参数?程序如何将数据发送到音频渲染器,并在我的扬声器中播放。
发布于 2011-07-27 06:08:21
loadData()函数用于填充pData指向的音频。该示例抽象了音频源,因此可以是从.wav文件到您已经捕获的麦克风音频的任何内容。
因此,如果您试图从该示例进行构建,那么只要调用loadData(),我就会实现MyAudioSource类,并让它只从文件中读取PCM或浮动样本。然后,如果您运行该程序,它应该会从扬声器中播放文件中的音频。
https://stackoverflow.com/questions/5382928
复制相似问题