首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >使用WebRTC语音活动检测器对Websockets传输的VOIP实时音频进行检测

使用WebRTC语音活动检测器对Websockets传输的VOIP实时音频进行检测
EN

Stack Overflow用户
提问于 2021-03-11 04:09:31
回答 1查看 1.4K关注 0票数 0

我正在尝试为通过websocket传输的VOIP呼叫设置WebRTC语音活动检测器(VAD),以检测呼叫者何时停止通话。

大多数关于WebRTC VAD的教程和问题都是基于录制的音频文件,而不是基于实时流。我想知道如何在websocket上实时实现VOIP呼叫。

根据py-webrtcvad文档(https://pypi.org/project/webrtcvad/):

给它一个短片段(“帧”)的音频。WebRTC VAD只接受16位单声道音频,采样频率为8000、16000或32000赫兹.帧的持续时间必须为10、20或30 ms。

如何将来自websocket的原始音频流转换为上面所需的WebRTC VAD才能工作呢?

EN

回答 1

Stack Overflow用户

发布于 2021-04-20 16:17:42

要使用VAD,需要正确的块大小。https://github.com/wiseman/py-webrtcvad/issues/30

代码语言:javascript
复制
- For example, if your sample rate is 16000 Hz, then the only allowed 
frame/chunk sizes are: 
    16000 * ({10,20,30} / 1000) = 160, 320 or 480 samples.
- Since each sample is 2 bytes (16 bits), the only allowed frame/chunk sizes are 
320, 640, or 960 bytes.
票数 2
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/66576350

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档