GCP AutoML Tables 在线预测需要几秒钟
GCP AutoML Tables predict online takes several seconds
以下需要几秒钟。我知道这不是概念性的,但我是从 GCP 问题交叉发布的,以防万一有人碰巧遇到相同的情况。
const { PredictionServiceClient } = require('@google-cloud/automl');
const predictionServiceClient = new PredictionServiceClient({ apiEndpoint });
const prediction = await predictionServiceClient.predict({
name: modelFullId,
params,
payload,
});
这个 API 在冷的时候实时需要接近 10 秒,在热的时候需要 5 秒。除了导出模型并自己 运行 之外,还有什么方法可以解决这个问题?
是的,您可以导出模型并与 tensorFlowJS 一起使用。
https://cloud.google.com/vision/automl/docs/edge-quickstart
https://github.com/tensorflow/tfjs/tree/master/tfjs-automl
导出模型并下载 model.json, dict.txt, *.bin
个文件到本地。
将模型加载到tensorFlowJS中并使用它。
以下需要几秒钟。我知道这不是概念性的,但我是从 GCP 问题交叉发布的,以防万一有人碰巧遇到相同的情况。
const { PredictionServiceClient } = require('@google-cloud/automl');
const predictionServiceClient = new PredictionServiceClient({ apiEndpoint });
const prediction = await predictionServiceClient.predict({
name: modelFullId,
params,
payload,
});
这个 API 在冷的时候实时需要接近 10 秒,在热的时候需要 5 秒。除了导出模型并自己 运行 之外,还有什么方法可以解决这个问题?
是的,您可以导出模型并与 tensorFlowJS 一起使用。
https://cloud.google.com/vision/automl/docs/edge-quickstart
https://github.com/tensorflow/tfjs/tree/master/tfjs-automl
导出模型并下载
model.json, dict.txt, *.bin
个文件到本地。将模型加载到tensorFlowJS中并使用它。