我应该如何使用 Google 助手实现无线电控制?
How should I implement radio controls using Google Assistant?
我的用例如下:
用户正在开车或 he/she 无法用 his/her 的手使用他的智能手机。 he/she 可以执行的所有操作如下:
"hey goole,"
- 播放播放列表$playlistName
- 播放$radioStation
- 播放$podcastDate 的$podcastName
- 暂停
- 下一个电台
- 上一个电台
我看过一个 Google I/O '18 视频,他们在其中介绍了应用程序操作(here 演示文稿的可读版本)。基本上应该创建一个 action.xml 文件,其中创建了语义意图和 android 意图之间的映射。因此,当用户说 "magic words"(语义意图)时,将调用正确的 (android) 意图来满足请求。
我的问题是:
- 如何使用操作 Console/Dialogflow 控制台创建语义意图?我所看到的只是如何创建一个会话应用程序,这不是我需要的
- 既然 developer guide 上写着 "Note: Developer preview coming soon!",我是不是漏掉了什么?有没有办法使用 Google 控制台上的操作来完成我需要的操作?
注意:
为了获取广播内容,我使用了第三方库
遗憾的是,第三方开发人员目前无法直接调用 Google 助手 ("Hey Google, play Africa by Toto")。
但是,您可以使用 explicit invocation 触发 Google 助理操作,然后可以将 HTTP 请求发送到可以与您的 Android 通信的 REST API应用程序。
用户可以在他们的调用结束时包含一个调用短语,这将把他们直接带到他们请求的 Google > Dialogflow > Firebase 函数上的操作,如下所示:
我的用例如下: 用户正在开车或 he/she 无法用 his/her 的手使用他的智能手机。 he/she 可以执行的所有操作如下: "hey goole,"
- 播放播放列表$playlistName
- 播放$radioStation
- 播放$podcastDate 的$podcastName
- 暂停
- 下一个电台
- 上一个电台
我看过一个 Google I/O '18 视频,他们在其中介绍了应用程序操作(here 演示文稿的可读版本)。基本上应该创建一个 action.xml 文件,其中创建了语义意图和 android 意图之间的映射。因此,当用户说 "magic words"(语义意图)时,将调用正确的 (android) 意图来满足请求。
我的问题是:
- 如何使用操作 Console/Dialogflow 控制台创建语义意图?我所看到的只是如何创建一个会话应用程序,这不是我需要的
- 既然 developer guide 上写着 "Note: Developer preview coming soon!",我是不是漏掉了什么?有没有办法使用 Google 控制台上的操作来完成我需要的操作?
注意: 为了获取广播内容,我使用了第三方库
遗憾的是,第三方开发人员目前无法直接调用 Google 助手 ("Hey Google, play Africa by Toto")。
但是,您可以使用 explicit invocation 触发 Google 助理操作,然后可以将 HTTP 请求发送到可以与您的 Android 通信的 REST API应用程序。
用户可以在他们的调用结束时包含一个调用短语,这将把他们直接带到他们请求的 Google > Dialogflow > Firebase 函数上的操作,如下所示: