运行 推理图失败 - 有什么问题吗?

Failed to run the inference graph - what could be wrong?

我正在尝试部署本地训练的模型。我遵循了模型准备的所有说明 here,并成功部署了它。

然而,当我尝试获取预测时,在线预测响应 502 服务器错误,批量预测 returns ('Failed to run the inference graph', 1)

有没有办法获得更好的错误消息来缩小错误范围?

谢谢

错误消息表明它发生在运行为推理图会话时。可能会发现某些代码正在发生什么以在本地使用该模型。测试它的一种方法是创建一个小的输入数据集并将其提供给推理图以检查您是否可以 运行 在本地进行会话。

您可以参考SDK中samples/mnist/deployable/中的local_predict.py如何操作。这是一个使用示例:

python local_predict.py --input=/path/to/my/local/files --model_dir=/path/to/modeldir.

请注意,model_dir 指向保存 tensorflow 元图原型和检查点文件的位置。它们是通过训练产生的。这是关于如何训练模型的文档 link。 https://cloud.google.com/ml/docs/how-tos/training-models。模型目录也可以在 GCS 上。

感谢您提出这个问题。我们一直在努力改善服务的整体体验,包括错误报告。