我有一个WebRTC iOS应用程序。我有AVAudioSession和RTCAudioSource。我需要检测麦克风何时开始接收响亮的声音(比如当一个人开始说话时),类似于听着在浏览器中使用AudioContext所做的事情。我怎样才能检测到它,或者得到一些类似于流的东西,可以像AVCaptureAudioChannel或AVCaptureAudioDataOutput那样测量?
发布于 2017-08-30 05:01:06
在使用AVAudioRecorder.请求录制音频的权限之后,我建议使用AVAudioSession --它是一个相当简单的类,其简单程度如下:
AVAudioRecorder实例prepareToRecordmeteringEnabled方法启用声音测量功能启用记录之后,您可以使用方法访问记录音量度量。
你可能想读苹果的https://developer.apple.com/documentation/avfoundation/avaudiorecorder?language=objc
~ N O T E ~
我不熟悉AVAudioRecorder框架/功能,但是WebRTC类将为您提供在录制过程中度量音频输入的能力。
~~ S A M P L E ~~
我已经包含了过去使用过的GitHub 样本工程。使用我所描述的AVAudioRecorder类来检测音频的灵敏度。
https://stackoverflow.com/questions/45692438
复制相似问题