如何部署 rasa 聊天机器人
How to deploy rasa chatbot
我已经使用 rasa 框架构建了一个聊天机器人。现在我想在我的网站上部署它,但我不想使用聊天机器人或 Docker 来部署它。我正在谷歌搜索,但我不明白。
如何在我的网站上部署聊天机器人?
- 按照描述使用 pip / anaconda 安装 Rasa Core 和 Rasa here (Rasa Core) and here (Rasa NLU)。
- 训练您的核心和 NLU 模型
- 使用
python -m rasa_nlu.server --path projects
将 NLU 作为服务器启动(请参阅 here 获取文档)。使用 nohup 之类的工具执行此操作,以便在您关闭终端时服务器不会被终止 window
编辑 Rasa Core 的端点配置文件,使其链接到 NLU(参见文档 here):
nlu:
url: "http://<your nlu host>:5000"
决定如何将您网站上的机器人连接到 Rasa。可能是通过 REST or using socketio。将已用通道的配置添加到凭据文件,例如对于休息
rest:
# you don't need to provide anything here - this channel doesn't
# require any credentials
运行 拉萨核心
python -m rasa_core.run -d <path to core model> \
-u <nlu model you want to use> \
--endpoints <path to your endpoint configuration (includes NLU url) \
--credentials <channel credentials>
- 从您的网站调用 Rest 或套接字 io 端点。 Here 是一个小型聊天小部件,您可以将其嵌入您的网站并使用 socketio 与 Rasa 进行通信。
我已经使用 rasa 框架构建了一个聊天机器人。现在我想在我的网站上部署它,但我不想使用聊天机器人或 Docker 来部署它。我正在谷歌搜索,但我不明白。
如何在我的网站上部署聊天机器人?
- 按照描述使用 pip / anaconda 安装 Rasa Core 和 Rasa here (Rasa Core) and here (Rasa NLU)。
- 训练您的核心和 NLU 模型
- 使用
python -m rasa_nlu.server --path projects
将 NLU 作为服务器启动(请参阅 here 获取文档)。使用 nohup 之类的工具执行此操作,以便在您关闭终端时服务器不会被终止 window 编辑 Rasa Core 的端点配置文件,使其链接到 NLU(参见文档 here):
nlu: url: "http://<your nlu host>:5000"
决定如何将您网站上的机器人连接到 Rasa。可能是通过 REST or using socketio。将已用通道的配置添加到凭据文件,例如对于休息
rest: # you don't need to provide anything here - this channel doesn't # require any credentials
运行 拉萨核心
python -m rasa_core.run -d <path to core model> \ -u <nlu model you want to use> \ --endpoints <path to your endpoint configuration (includes NLU url) \ --credentials <channel credentials>
- 从您的网站调用 Rest 或套接字 io 端点。 Here 是一个小型聊天小部件,您可以将其嵌入您的网站并使用 socketio 与 Rasa 进行通信。