首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >使用Openears框架的语音识别?

使用Openears框架的语音识别?
EN

Stack Overflow用户
提问于 2012-12-07 06:13:27
回答 1查看 3.4K关注 0票数 1

操作:用于iPhone(iOS设备)的语音识别(语音到文本)框架,我已经在我的iPhone设备上安装了openears演示应用程序,它运行良好,但只适用于诸如GO、CHANGE、MODEL之类的单词列表。我们能否使语音识别对于实时语音识别更加通用,也就是说,不局限于少数几个单词。应该是通用的。

Openears:http://www.politepix.com/openears/

EN

回答 1

Stack Overflow用户

发布于 2012-12-07 06:24:23

您必须使用新的语言模型,而不是它们的默认模型。

语言模型是您希望OpenEars理解的词汇表,它的语音识别引擎可以理解它的格式。

语言模型越小,越适合用户的实际使用情况,其准确性就越高。

一个理想的PocketsphinxController语言模型只有不到200个单词。

您可以通过LanguageModelGenerator类动态创建新的语言模型。

有关LangaugeModelGenerator和Openears基本概念的详细信息

注:

请只在其论坛中发布有关Openears的查询

您可以看到更多的语音到文本SDK的这里

票数 3
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/13757897

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档