iOS应用程序连接到内部网并控制其他硬件。这个硬件是用来给病人做手术的。由于大部分是在手术中,很难通过手指使用iOS应用程序,而语音命令看起来更好。
我已经通过了语音识别器框架,可以在没有互联网的情况下检测到单词。
然而,这些服务不能长时间运行。SpeechRecognizer框架只允许运行一分钟,因为手术可能会持续一个多小时。我想创建一种机制,我们可以触发应用程序开始识别语音命令。(类似于Android中的ok google ),以便应用程序获得一个触发器来捕获语音命令。
寻找建议的读数或解决方案。
发布于 2019-08-16 17:43:26
“嘿Siri”和"Ok Google“的工作原理是一样的,都只是触发语音助手。为了能够执行自定义任务,你可以创建一个Siri扩展,或者使用Siri快捷方式,但这可能会受到更多限制。你不能直接从语音触发你的应用。你需要使用Siri,因为它“总是在听”。
有一些老的答案建议,如果你在前台开始录制,然后切换后台,并请求延长时间来完成录制,它可以工作,但即使这样,我认为它也只会给你很短的时间。在最近的版本中,我认为这受到了进一步的限制(可能是出于隐私的原因)
iOS Background audio recording
因此,为了回答你的问题,我认为你需要创建一个Siri扩展来在你的应用程序中触发这些操作。
发布于 2019-09-03 23:11:41
我想创建一种机制,我们可以触发应用程序开始识别语音命令。
最简单的解决方案是使用语音控制功能( iOS 13中的新功能),该功能可在所有iOS 13设备上原生运行,并且可以:
激活(辅助功能-语音控制按钮打开)后,请关闭(go to sleep)并打开(wake up)。
在设备设置Accessibility - Voice Control中激活此功能,如下所示:

请看一下Customize Commands菜单,深入了解也可以自定义的语音命令。
这一令人惊叹的iOS 13新功能为运动障碍者提供了在他们的苹果移动设备和计算机之间自主导航的能力:这绝对是你正在寻找的……即使目标不是这类人。;o)
您可以使用语音控制设备的所有功能,就像使用触摸一样。
作为开发人员,如果您需要显示某些项目的特定名称,那么最终要做的就是调整accessibilityUserInputLabels属性。
https://stackoverflow.com/questions/57489298
复制相似问题