GCP AutoML Tables 在线预测需要几秒钟

GCP AutoML Tables predict online takes several seconds

以下需要几秒钟。我知道这不是概念性的,但我是从 GCP 问题交叉发布的,以防万一有人碰巧遇到相同的情况。

const { PredictionServiceClient } = require('@google-cloud/automl');
const predictionServiceClient = new PredictionServiceClient({ apiEndpoint });
const prediction = await predictionServiceClient.predict({
    name: modelFullId,
    params,
    payload,
});

这个 API 在冷的时候实时需要接近 10 秒,在热的时候需要 5 秒。除了导出模型并自己 运行 之外,还有什么方法可以解决这个问题?

是的,您可以导出模型并与 tensorFlowJS 一起使用。

https://cloud.google.com/vision/automl/docs/edge-quickstart

https://github.com/tensorflow/tfjs/tree/master/tfjs-automl

  1. 导出模型并下载 model.json, dict.txt, *.bin 个文件到本地。

  2. 将模型加载到tensorFlowJS中并使用它。