我想建立一个非常低级别的音频输出节点使用网络音频API的AudioWorkletProcessor。似乎所有的例子都实现了将输入样本转换为输出样本的处理器,但我想做的是只生成输出,所有这些都是基于样本的时间戳。
根据MDN,BaseAudioContext.currentTime不是这个时间戳的精确来源:
为了防止定时攻击和指印,
的精度可能会根据浏览器设置而四舍五入。在火狐中,默认情况下,privacy.reduceTimerPrecision首选项是启用的,在Firefox59中默认为20 is,在60中为2ms。
一个棘手的解决方案可能是使用BaseAudioContext.sampleRate,一个正在运行的计数器,以及输出数组的大小,但是只有当我们可以假设每个样本都是在不下降的情况下计算,并且所有的计算都是按顺序进行的,而我不确定这些假设是否有效,这才能奏效。
在处理框架内,是否有可靠的方法知道与给定样本索引相关的时间戳?
发布于 2021-01-25 02:24:21
在AudioWorkletGlobalScope内部,您可以访问currentTime和currentFrame。它们都是全球性的。
https://webaudio.github.io/web-audio-api/#AudioWorkletGlobalScope-attributes
据我所知,它们在任何支持AudioWorklet的浏览器中都是准确的。
https://stackoverflow.com/questions/65878106
复制相似问题