启动 Tensorboard 假设工具
Launch Tensorboard What-If Tool
我想使用 Tensorboard 的新 What-If 工具,但不明白如何启动或安装插件。
我遵循了概述的模型和数据步骤 here,但卡在了 "open this tool" 部分。
我安装了最新版本的 Tensorboard (1.11.0
)。已克隆 Tensorboard 存储库并可以成功构建和 运行 演示应用程序。当我启动 Tensorboard 时,交互式推理插件没有出现在仪表板中,但是没有任何 bazel py_binary
可以在插件存储库中执行以从源代码构建。
我确定这是我遗漏的一些小东西,但无法在网上找到任何文档来提供帮助。
进入tensorboard repo后,输入
bazel run //tensorboard -- --logdir /tmp/mylogs
/tmp/mylogs
是您的日志目录。
这将为带有假设插件的 tensorboard 打开一个端口,您可以通过 http://localhost:6006/#whatif
访问该插件
我可以 运行 在我的本地。我正在使用 1.12 张量板。
./bazel-bin/tensorboard/tensorboard --logdir /path/to/your/model
然后在浏览器中转到:http://localhost:6006/。在这里您将有一个下拉菜单,单击假设工具
enter image description here
我想使用 Tensorboard 的新 What-If 工具,但不明白如何启动或安装插件。
我遵循了概述的模型和数据步骤 here,但卡在了 "open this tool" 部分。
我安装了最新版本的 Tensorboard (1.11.0
)。已克隆 Tensorboard 存储库并可以成功构建和 运行 演示应用程序。当我启动 Tensorboard 时,交互式推理插件没有出现在仪表板中,但是没有任何 bazel py_binary
可以在插件存储库中执行以从源代码构建。
我确定这是我遗漏的一些小东西,但无法在网上找到任何文档来提供帮助。
进入tensorboard repo后,输入
bazel run //tensorboard -- --logdir /tmp/mylogs
/tmp/mylogs
是您的日志目录。
这将为带有假设插件的 tensorboard 打开一个端口,您可以通过 http://localhost:6006/#whatif
访问该插件我可以 运行 在我的本地。我正在使用 1.12 张量板。 ./bazel-bin/tensorboard/tensorboard --logdir /path/to/your/model 然后在浏览器中转到:http://localhost:6006/。在这里您将有一个下拉菜单,单击假设工具 enter image description here