我一直在探索Scene Kit / ARKit中的位置音频,我想看看是否可以在这种情况下使用AudioKit,以便从其更高级的分析、声音生成、效果等工具中受益。
在某些背景下,SCNView附带了AVAudioEnvironmentNode、AVAudioEngine和audioListener (SCNNode)。这些属性已初始化,环境节点已配置到引擎。通过SCNAudioPlayer将位置音频源添加到场景中,可以使用AVAudioNode对其进行初始化- AVAudioNode必须连接到环境节点并具有单声道输出。
然后,SCNAudioPlayer将添加到场景中的SCNNode,并根据AVAudioNode在场景中的位置以及audioListener节点的位置和方向自动修改audioListener的输出。
我希望可以使用SCNView的AVAudioEngine属性初始化AudioKit,在引擎的节点图中配置SCNView的环境节点,使用AKNodes的AVAudioNode属性初始化SCNAudioPlayers,并确保所有源代码正确连接到环境节点。我已经开始修改AudioKit源代码,但在弄清楚需要适应哪些类以及如何将环境节点集成到AudioKit管道中时遇到了麻烦。特别是,我在理解connectionPoints和outputNode属性时遇到了问题。
有没有人认为这可能是不可能的,因为AudioKit是如何构造的,或者有任何关于方法的指示?
我当然很乐意分享我的任何发现。
发布于 2017-11-17 02:43:12
AudioKit在AudioKit.swift的第38行创建自己的AVAudioEngine实例:
https://github.com/AudioKit/AudioKit/blob/master/AudioKit/Common/Internals/AudioKit.swift#L38
但是它是开放的,所以应该可以用SceneView的音频引擎覆盖它。我看不到任何能阻止它的东西。
https://stackoverflow.com/questions/47082552
复制相似问题