我正在为我的聊天机器人使用Wit.ai。问题是我的机器人总是试图回答一些问题。我只会让我的机器人的答案,如果它真的理解什么是被问到的。我知道这是可能的,但是如果我有一个回答很少的机器人,它似乎总是选择其中一个回答,即使它被问到了完全不同的问题。
Wit.ai
我想可以让它这样回答:“对不起,我不知道你在问什么,我可以帮你……”。
也许我应该使用我可以检索到的置信度,并确保它高于某个阈值?
https://stackoverflow.com/questions/38334663
相似问题