我正在流式传输arrayBuffer以转换为audioBuffer,以便能够收听它。
我正在通过websocket事件接收流
retrieveAudioStream(){
this.socket.on('stream', (buffer) => {
console.log('buffer', buffer)
})
}buffer是一个arrayBuffer,我需要它是一个audioBuffer,以便能够在我的应用程序上侦听它。
我该怎么做呢?
发布于 2019-06-25 13:45:35
您可以使用BaseAudioContext.createBuffer()方法。它被用来
创建一个新的空
AudioBuffer对象,然后可以用数据填充该对象,并通过AudioBufferSourceNode播放
查看MDN获取更多信息:https://developer.mozilla.org/en-US/docs/Web/API/BaseAudioContext/createBuffer
发布于 2019-06-30 05:31:48
因为你是流媒体,而不是下载文件然后解码音频数据,AudioContext.createMediaStreamSource()将更适合你的用例。
点击此处了解更多信息https://developer.mozilla.org/en-US/docs/Web/API/AudioContext/createMediaStreamSource
https://stackoverflow.com/questions/50512436
复制相似问题