在部署 Azure 机器学习实验服务时包括额外的脚本
Include additional scripts when deploying a Azure ML experimentation service
训练我的模型时,我开始使用的数据由 json 行数据和我想从该 json 数据中预测的预期值组成。 json 数据遵循我部署的服务接收输入的模式。在训练之前,我 运行 一些 python 函数来转换数据并提取根据原始 json 数据计算的特征。这是我的模型训练的转换数据。
我提取了代码以将 json 数据转换为我的模型期望的输入到一个单独的 python 文件中。现在,我想让我的评分脚本使用那个 python 脚本来准备发送到服务的输入,然后再将其输入我的训练模型。
在使用 cli 命令部署我的服务时,有没有办法将数据转换脚本与评分脚本包括在一起:
az ml service create realtime
-f <scoring-script>.py
--model-file model.pkl
-s service_schema.json
-n <some-name>
-r python
--collect-model-data true
-c aml_config\conda_dependencies.yml
(为清楚起见,在上述命令中添加了新行)
我想出的两种方法是:
- 创建我自己的包含转换脚本的基础 docker 图像,并将该图像用作我的服务的基础。如果我需要为以后的模型进行类似(但不同)的数据转换,似乎有点麻烦。
- 将转换脚本与我的评分脚本连接到一个文件中。好像有点hacky.
是否有另一种方法可以实现我的目标,即在训练和评分中使用单独的数据转换脚本?
因此 运行 az ml service create realtime -h
提供了有关 -d
标志的信息。
-d : Files and directories required by the service. Multiple dependencies can be specified with additional -d arguments.
请尝试使用此标志并提供您也想从 score.py
中调用的附加 python 文件
训练我的模型时,我开始使用的数据由 json 行数据和我想从该 json 数据中预测的预期值组成。 json 数据遵循我部署的服务接收输入的模式。在训练之前,我 运行 一些 python 函数来转换数据并提取根据原始 json 数据计算的特征。这是我的模型训练的转换数据。
我提取了代码以将 json 数据转换为我的模型期望的输入到一个单独的 python 文件中。现在,我想让我的评分脚本使用那个 python 脚本来准备发送到服务的输入,然后再将其输入我的训练模型。
在使用 cli 命令部署我的服务时,有没有办法将数据转换脚本与评分脚本包括在一起:
az ml service create realtime
-f <scoring-script>.py
--model-file model.pkl
-s service_schema.json
-n <some-name>
-r python
--collect-model-data true
-c aml_config\conda_dependencies.yml
(为清楚起见,在上述命令中添加了新行)
我想出的两种方法是:
- 创建我自己的包含转换脚本的基础 docker 图像,并将该图像用作我的服务的基础。如果我需要为以后的模型进行类似(但不同)的数据转换,似乎有点麻烦。
- 将转换脚本与我的评分脚本连接到一个文件中。好像有点hacky.
是否有另一种方法可以实现我的目标,即在训练和评分中使用单独的数据转换脚本?
因此 运行 az ml service create realtime -h
提供了有关 -d
标志的信息。
-d : Files and directories required by the service. Multiple dependencies can be specified with additional -d arguments.
请尝试使用此标志并提供您也想从 score.py