在哪里部署用于 API 预测的机器学习模型?

Where to deploy machine learning model for API predictions?

我用 Prophet 创建了一个机器学习模型:

https://www.kaggle.com/marcmetz/ticket-sales-prediction-facebook-prophet

我有一个 Web 应用程序 运行 Django。从该应用程序中,我希望能够从我创建的模型中查找预测。我认为最好的方法是在 Google 云平台或 AWS (?) 上部署我的模型,并通过从我的 Web 应用程序到其中一项服务的 API 调用来访问预测。

我现在的问题是:我描述的方式是否正确?我仍然很难决定是 AWS 还是 Google Cloud 更适合我的情况,尤其是 Prophet。我只能找到 scikit-learn 的示例。谁有这方面的经验并能指出正确的方向?

这实际上取决于您使用的模型类型。在许多情况下,模型推理正在获取一个数据点(类似于您用来训练它的数据点),并且该模型将生成对该请求数据点的预测。在这种情况下,您需要将模型托管在云端或边缘的某个地方。

但是,作为模型训练的一部分,Prophet 经常生成对未来的预测。在这种情况下,您只需提供已经计算出的预测,您可以将它们作为来自 S3 的 CSV 文件提供,或者作为来自 DynamoDB 或其他查找数据存储的查找值提供。