Google 援助与。 Api.ai
Google Assistance Vs. Api.ai
最近开始研究Google辅助。我试图了解它是如何在引擎盖下工作的,并从 Google i/o 16.
中找到了以下屏幕截图
根据我的理解,NLP 位于 Google 辅助部分,处理自然语言处理并实现需要做什么才能满足用户请求。
但是当我阅读 api.ai 上的描述时,它被描述为自然语言理解 (NLU)。我相信 NLU 是 NLP 的一部分。
为什么我们需要两个 NLU? api.ai 在图中到底在做什么?
以下是我对 Google 上的操作的理解方式。多加点盐就可以了。
首先是启动流程的短语。例如 "OK, Google talk to 'my app'" 或 "OK, Google ask 'my app' 'my query'"。显然,Actions 平台——无论它是什么——需要理解这个短语,是吗? "OK, Google" 可能会引入针对 Google 本身的语音搜索,或者它可以发送一个动作,或者它可以是发送电子邮件等的请求。此外,如果它发送一个动作,它需要 运行 它并向它传递一个查询(如果它存在)。所以 AoG 确实需要一定的理解才能让事情顺利进行。
但是一旦 Action 发出,AoG 的工作更多的是识别而不是理解。在对话的每一次转折中,它都会将它所听到的文本——相当不加批判地——发布到一个 Action 上,以便它理解。然后 Action returns 文本,然后再一次,无需理解它通过语音合成器(或 TTS 引擎,如果你喜欢的话)传递文本的响应。
现在,Action 需要了解自己的语法并根据需要处理短语。一些 Actions - 那些使用 Actions SDK 构建的 - 使用专有的 NLU 进行自己的理解。其他人使用 Dialog Flow(以前称为 API.AI)来理解文本。在这里,Dialog Flow 就像一个垫片或中间人,位于第 3 方操作和 AoG 平台之间。
最近开始研究Google辅助。我试图了解它是如何在引擎盖下工作的,并从 Google i/o 16.
中找到了以下屏幕截图根据我的理解,NLP 位于 Google 辅助部分,处理自然语言处理并实现需要做什么才能满足用户请求。
但是当我阅读 api.ai 上的描述时,它被描述为自然语言理解 (NLU)。我相信 NLU 是 NLP 的一部分。
为什么我们需要两个 NLU? api.ai 在图中到底在做什么?
以下是我对 Google 上的操作的理解方式。多加点盐就可以了。
首先是启动流程的短语。例如 "OK, Google talk to 'my app'" 或 "OK, Google ask 'my app' 'my query'"。显然,Actions 平台——无论它是什么——需要理解这个短语,是吗? "OK, Google" 可能会引入针对 Google 本身的语音搜索,或者它可以发送一个动作,或者它可以是发送电子邮件等的请求。此外,如果它发送一个动作,它需要 运行 它并向它传递一个查询(如果它存在)。所以 AoG 确实需要一定的理解才能让事情顺利进行。
但是一旦 Action 发出,AoG 的工作更多的是识别而不是理解。在对话的每一次转折中,它都会将它所听到的文本——相当不加批判地——发布到一个 Action 上,以便它理解。然后 Action returns 文本,然后再一次,无需理解它通过语音合成器(或 TTS 引擎,如果你喜欢的话)传递文本的响应。
现在,Action 需要了解自己的语法并根据需要处理短语。一些 Actions - 那些使用 Actions SDK 构建的 - 使用专有的 NLU 进行自己的理解。其他人使用 Dialog Flow(以前称为 API.AI)来理解文本。在这里,Dialog Flow 就像一个垫片或中间人,位于第 3 方操作和 AoG 平台之间。