Google assistant actions sdk动作包
Google assitant actions sdk action package
actions SDK 无法识别来自 action.json 的任何其他意图。
我读到这不是 post 中的错误:
我不明白的是,如果 SDK 无法识别它们,为什么我们可以选择 define actions?
有没有其他方法可以在不使用 DialogFlow 的情况下添加更多意图?
没错,这不是错误。 actions.json 文件中列出的 Intent 主要用于匹配初始 Intent(复数 - 如果您定义了多个 Intent,它们有助于确定要使用的初始 Intent)。它们可以帮助进行对话塑造并建议语音到文本解析器应该寻找哪些模式,但它们并不强制解析器遵循它们——我敢说这是有意为各种自然语言解析器提供灵活性。
后者可能是它们最终未被使用的原因。与 Alexa 不同,Alexa 需要广泛的精确文本来匹配其 Intent 定义,Google 可能开始走这条路并意识到最好将其交给其他 NLP,无论是您自己的还是商业的,它可以处理人类实际说话方式的灵活性。 (然后他们买了一个作为建议使用的工具提供。)
因此,如果您打算将语言解析交给另一个工具,那么 Actions SDK 已成为主要使用的工具。与其他任何工具相比,使用它并没有太多优势。
您没有义务使用 Dialogflow。您可以使用任何接受所需语言的文本输入的 NLP 系统。 Google 还提供与 Converse.AI 的直接集成,我怀疑任何其他 NLP 都会提供有关如何将它们与 Actions 集成的说明。
actions SDK 无法识别来自 action.json 的任何其他意图。
我读到这不是 post 中的错误:
我不明白的是,如果 SDK 无法识别它们,为什么我们可以选择 define actions?
有没有其他方法可以在不使用 DialogFlow 的情况下添加更多意图?
没错,这不是错误。 actions.json 文件中列出的 Intent 主要用于匹配初始 Intent(复数 - 如果您定义了多个 Intent,它们有助于确定要使用的初始 Intent)。它们可以帮助进行对话塑造并建议语音到文本解析器应该寻找哪些模式,但它们并不强制解析器遵循它们——我敢说这是有意为各种自然语言解析器提供灵活性。
后者可能是它们最终未被使用的原因。与 Alexa 不同,Alexa 需要广泛的精确文本来匹配其 Intent 定义,Google 可能开始走这条路并意识到最好将其交给其他 NLP,无论是您自己的还是商业的,它可以处理人类实际说话方式的灵活性。 (然后他们买了一个作为建议使用的工具提供。)
因此,如果您打算将语言解析交给另一个工具,那么 Actions SDK 已成为主要使用的工具。与其他任何工具相比,使用它并没有太多优势。
您没有义务使用 Dialogflow。您可以使用任何接受所需语言的文本输入的 NLP 系统。 Google 还提供与 Converse.AI 的直接集成,我怀疑任何其他 NLP 都会提供有关如何将它们与 Actions 集成的说明。