部署和服务 ML 模型有什么区别?
What is the difference between Deploying and Serving ML model?
最近我开发了一个分类问题的机器学习模型,现在想投入生产对实际生产数据进行分类,在探索的过程中我遇到了部署和服务机器学习模型的两种方法,它们的基本区别是什么他们之间 ?
根据我自己的阅读和理解,区别如下:
Deploying = 这意味着您要创建一个 server/api(例如 REST API),以便它能够预测新的未标记数据
Serving = 它充当专门用于预测模型的服务器。这个想法是它可以为具有不同请求的多个模型提供服务。
基本上,如果您的用例需要部署多个 ML 模型,您可能需要寻找像 torchServe 这样的服务。但是如果只是一个模型的话,对于我来说,Flask已经足够好了。
参考:
最近我开发了一个分类问题的机器学习模型,现在想投入生产对实际生产数据进行分类,在探索的过程中我遇到了部署和服务机器学习模型的两种方法,它们的基本区别是什么他们之间 ?
根据我自己的阅读和理解,区别如下:
Deploying = 这意味着您要创建一个 server/api(例如 REST API),以便它能够预测新的未标记数据
Serving = 它充当专门用于预测模型的服务器。这个想法是它可以为具有不同请求的多个模型提供服务。
基本上,如果您的用例需要部署多个 ML 模型,您可能需要寻找像 torchServe 这样的服务。但是如果只是一个模型的话,对于我来说,Flask已经足够好了。
参考: