对话流稳定性

时间:2017-12-21 12:51:22

标签: dialogflow

我们在Dialogflow上测试了许多chatbot实例,其中一些是开发实例,另一些是锁定生产实例。我们会进行广泛的测试,以确保我们的响应经常保持一致和正确。

我们已经注意到,即使在我们没有改变任何内容的锁定实例上,Dialogflow对实例的意图和实体响应也会随着时间而改变,并且在某些情况下会变得不正确。

这表明基础训练算法正在发生变化,并且在发布此类更改时正在自动训练实例。有谁知道是否是这种情况?如果是的话,是否有关于如何维护稳定实例的建议?

2 个答案:

答案 0 :(得分:2)

我处于同样的境地。我们关闭了ML并关闭了自动扩展,因为当我们进入实体时,我们有时会在那里添加测试数据。

答案 1 :(得分:-1)

首先,你的意图&如果您锁定了实例,实体响应将永远不会改变,除非&直到你问一个有效/相关的问题。你可以随心所欲地保留它,你的实例不会受到影响。

第二件事,你担心实例会得到自动训练。请参阅,AI与...之间存在基本差异。 ML。通过了解用户想要说的内容来回复用户是AI,相反,当您尝试向用户学习时,ML会出现在图片中。基于此回答。在api.ai,NLP使用AI&不是ML所以不存在自动训练的问题。现在api.ai中ML的启用/禁用选项仅用于计算用户输入查询与用户匹配的百分比的阈值,表示您具有意图&不适合自动训练。

相关问题