MLRun 中有哪些不同的运行时?
What are the different runtimes in MLRun?
我正在尝试了解 MLRun 如何执行我的 Python 代码。支持哪些不同的运行时,我为什么要使用其中一个?
MLRun 有几种不同的方法来 运行 一段代码。目前支持以下运行次:
- 批量运行次
- local - 在您的本地环境(即 Jupyter、IDE 等)中执行 Python 或 shell 程序
- job - 运行 Kubernetes Pod 中的代码
- dask - 运行 代码作为 Dask 分布式作业(通过 Kubernetes)
- mpijob - 运行 通过 MPI 作业运算符分发作业和 Horovod,主要用于深度学习作业
- spark - 运行 作为 Spark 作业的作业(使用 Spark Kubernetes Operator)
- remote-spark - 运行 远程 Spark 上的作业 service/cluster(例如 Iguazio Spark 服务)
- Real-time运行次
- nuclio - real-time Nuclio
上的无服务器功能
- 服务 - 一个或多个 Nuclio 函数的更高级别 real-time 图 (DAG)
如果您有兴趣详细了解每个 运行 时间,请参阅 documentation。
我正在尝试了解 MLRun 如何执行我的 Python 代码。支持哪些不同的运行时,我为什么要使用其中一个?
MLRun 有几种不同的方法来 运行 一段代码。目前支持以下运行次:
- 批量运行次
- local - 在您的本地环境(即 Jupyter、IDE 等)中执行 Python 或 shell 程序
- job - 运行 Kubernetes Pod 中的代码
- dask - 运行 代码作为 Dask 分布式作业(通过 Kubernetes)
- mpijob - 运行 通过 MPI 作业运算符分发作业和 Horovod,主要用于深度学习作业
- spark - 运行 作为 Spark 作业的作业(使用 Spark Kubernetes Operator)
- remote-spark - 运行 远程 Spark 上的作业 service/cluster(例如 Iguazio Spark 服务)
- Real-time运行次
- nuclio - real-time Nuclio 上的无服务器功能
- 服务 - 一个或多个 Nuclio 函数的更高级别 real-time 图 (DAG)
如果您有兴趣详细了解每个 运行 时间,请参阅 documentation。