部署和服务 ML 模型有什么区别?

What is the difference between Deploying and Serving ML model?

最近我开发了一个分类问题的机器学习模型,现在想投入生产对实际生产数据进行分类,在探索的过程中我遇到了部署和服务机器学习模型的两种方法,它们的基本区别是什么他们之间 ?

根据我自己的阅读和理解,区别如下:

  1. Deploying = 这意味着您要创建一个 server/api(例如 REST API),以便它能够预测新的未标记数据

  2. Serving = 它充当专门用于预测模型的服务器。这个想法是它可以为具有不同请求的多个模型提供服务。

基本上,如果您的用例需要部署多个 ML 模型,您可能需要寻找像 torchServe 这样的服务。但是如果只是一个模型的话,对于我来说,Flask已经足够好了。

参考:

Pytorch Deploying using flask

TorchServe