来自文件列表的 Vertex AI 批量预​​测

Vertex AI batch predictions from file-list

我想为自定义模型提交批量预测作业(在我的例子中是火炬模型,但我认为这在这种情况下无关紧要)。所以我阅读了文档:

但是由于没有示例,我无法确定顶点 ai 将发送到我的模型的 json 对象的模式是什么。有人做过这项工作吗?

我最好的猜测是请求将包含以下正文:

{'instance' : <b64-encoded-content-of-the-file>}

但是当我阅读文档时(对于顶点 ai 的其他 'features')我也可以想象以下主体:

{'instance': {'b64' : <b64-encoded-content-of-the-file>}}

有人真的知道吗?

我做的另一件事是制作一个 'fake-model' 它收到的请求 returns ...当我提交批量预测作业时它实际上成功完成但是当我检查输出文件时它是空的...所以...我实际上需要 help/more 时间来考虑其他方法来破译顶点 ai 文档。

提前致谢!

Vertex AI custom container 应该用端点(预测)包装服务以接收实例列表,每个实例都是一个 json 可序列化对象

{'instances': [{'b64' : <b64-encoded-content-of-the-file1>}, {'b64' : <b64-encoded-content-of-the-file1>}, ...]}