在过去的几天里,我一直在检查Alexa技能工具包。我还仔细阅读了技能工具包和语音服务的文档。我只是在尝试理解流程时遇到了一点小问题。我已经在开发人员控制台中实现了amazon的示例技能之一(最喜欢的颜色示例),还编写了一个示例lambda函数来处理将要交付的响应类型。它在测试模拟器上工作,剩下的基本上是让lambda在我的ios应用程序中运行。然而,我的印象是我不需要使用语音服务。我说错了吗?我很困惑,如果有人能更清楚地说明这件事,那就太棒了。如果我也让lambda工作,我想它会接受特定格式的请求。我必须将编码的音频发送到哪里才能获得发送到技能工具包的json响应?到Alexa语音服务吗?
此外,我正在认证我的应用程序使用认知器和发电机数据库。如果我要使用Alexa语音服务,那么它提到,用户将不得不登录到亚马逊。那么,我还需要使用amazon sdk进行登录吗?还是有变通的办法?
发布于 2016-05-10 01:39:09
基于Amazon documentation,有两种方式可以与Alexa交互:
听起来您想要通过Companion方法实现这个应用程序。
至于JSON,我目前正在解决这个问题,(一旦我解决了这个问题,我会发布答案)。
基本上,您必须使用AVFoundation从iPhone捕获音频,并向Alexa发送两个https消息(一个消息使用JSON Body,第二个消息使用捕获的音频作为body。) Bases on Documentation
Alexa (您有一个要添加
发布于 2016-12-30 07:17:15
您可以在github上找到有关如何实现iOS AVS客户端的快速示例。
https://stackoverflow.com/questions/35915178
复制相似问题