我一直致力于谷歌语音识别API v2使用节点js谷歌-语音-api https://www.npmjs.com/package/google-speech-api正在工作,但我需要得到“临时结果”。
如何获得正在处理的音频的临时结果。我已经在网上搜索过了,但是找不到有用的信息并使其正常工作。
下面是我目前正在编写的代码:
var speech = require('google-speech-api');
var fs = require('fs');
var opts = {
file: 'amy_16.wav',
key: 'xxxx',
};
speech(opts, function (err, results) {
console.log(JSON.stringify(results));
// [{result: [{alternative: [{transcript: '...'}]}]}]
});发布于 2016-10-07 19:13:42
看来你不是在使用流媒体识别。为了获得部分结果,您需要使用speech.createRecognizeStream并将interimResults配置标志设置为true。例如:
var request = {
config: {
encoding: 'LINEAR16',
sampleRate: 16000
},
singleUtterance: false,
interimResults: true
};
fs.createReadStream('amy_16.wav')
.on('error', console.error)
.pipe(speech.createRecognizeStream(request))
.on('error', console.error)
.on('data', function(data) {
//do something with the data
console.log(data)
});不确定您想要实现什么,但是为了简化您可能想要查看索纳斯的事情。这是一个始终在听的语音识别框架,它支持部分结果的盒子。它还可以进行热词检测。免责声明:这是我的项目
https://stackoverflow.com/questions/39915251
复制相似问题