我们在Dialogflow上测试了许多聊天机器人实例,其中一些是开发实例,另一些是锁定的生产实例。我们做了大量的测试,以确保我们的响应是一致的和正确的。
我们已经注意到,即使在一个锁定的实例上,我们没有改变任何东西,实例上来自Dialogflow的意图和实体响应可能会随着时间的推移而改变,在某些情况下会变得不正确。
这表明潜在的训练算法正在改变,当这些改变被释放时,实例正在被自动训练。有没有人知道是不是这样?如果是,有没有关于如何维护一个稳定的实例的建议?
发布于 2018-04-18 09:29:25
我也处于同样的境地。我们关闭了ML和自动扩展,因为当我们进入实体时,有时会得到添加到其中的测试数据。
发布于 2018-02-13 16:20:25
首先,如果你锁定了实例,你的意图和实体响应永远不会改变,除非&直到你问了一个有效的/相关的问题。只要你想让它保持原样多长时间,你的实例就不会受到影响。
第二件事,你害怕实例会被自动训练。看,AI和ML之间有根本的区别。通过理解用户想说的话的上下文来回复用户是人工智能,相反,当你试图从用户说和回答中学习时,ML就会出现在图片中。在api.ai中,自然语言处理使用的是AI &而不是ML,因此不存在自动训练的问题。现在,api.ai中ML的启用/禁用选项仅用于计算用户输入的查询匹配到用户所说的意图的百分比的阈值,而不是用于自动训练。
https://stackoverflow.com/questions/47925421
复制相似问题