这可能是一个我无法找到的简单值,但我正在尝试排除一个单一的值(“女友”),使其不被作为我正在构建的聊天机器人中的一个实体。实体列表当前是“狗、猫、宠物、妈妈、马”,每个实体也有相关的同义词。
沃森一直拿起“女友”,并将其作为一个实体进行匹配,尽管它不在其中,这填塞了对话中的逻辑。
有没有办法阻止Watson在实体列表中识别超出列表中的内容的相似单词?我试过关闭模糊匹配,但这只是遗漏了拼写错误。
请注意,这不是意图训练问题,它专门询问实体识别。
感谢您的帮助。
-T-
发布于 2020-01-16 16:21:05
您的问题并不完全清楚,但您可能希望了解一下how to improve a skill。因为Watson Assistant是基于AI技术构建的,所以其中一个关键部分是关于学习的。
您可以通过返回到对话并用正确的匹配更正错误的匹配来“教授”Watson Assistant。Watson Assistant将拾取此信息,然后重新训练该对话框。这应该会导致排除“女友”。
发布于 2020-04-22 10:16:51
我也遇到过类似的问题。我的机器人一直在选择自己的名字作为用户名,我希望它忽略自己的名字,即使用户输入了它(例如,Hello Robot,I am Jill)我希望它响应'Jill‘而不是'Robot’,但它一直没有响应。后来我意识到我创建的上下文变量具有与用户名相似的值。所以我所做的就是创建一个变量@bot-name,并且只给它一个值(Robot),没有同义词,没有模糊匹配,没有注释。然后再试一次,机器人识别出了自己的名字,忽略了这个名字,并正确地选择了第二个名字作为用户名。因此,当我重复句子'Hello Robot,I am Jill‘时,它识别出@entity:bot-name和@entity:user-name,然后只响应用户名。您可以尝试类似的方法。
发布于 2020-01-17 17:33:51
不清楚你是如何创建你的实体列表的。如果它是通过上下文实体,那么Watson可能会将“女友”视为与其他实体在同一“家庭”中,并将其添加到实体列表中。如果实体列表是硬编码的,以及同义词,那么我猜你的同义词中有一个与女友、女孩或朋友的拼写相同。其通过模糊逻辑将匹配实体,但具有较低的置信度水平。要解决此问题,您可以创建一个新的实体列表,并设置一个与实体列表一匹配的条件,但不匹配实体列表二(女友)。
或者你可以在实体列表上设置你的条件,并且实体置信度> 0.8 --但是你可能会漏掉一些拼写错误。(选择一个略高于女友报告的置信度水平)。
https://stackoverflow.com/questions/59761294
复制相似问题