GCP Vision 的自定义对象检测器模型出现问题
Issue with Custom Object Detector model from GCP Vision
我的完整技术栈是:
- GCP 机器学习愿景。
- 将模型导出为 tflite 格式(来自同一个 GCP 控制台)。
- XCode iOS 发展
- iPhone 11 亲
我正在尝试使用使用 MLKit 的自定义对象检测器和一个在 GCP AutoML Vision 中训练的模型。
我创建了模型并导出为 tflite 文件,但是当尝试执行 objectDetector processImage:visionImage
时,我总是得到错误:
Error Domain=com.google.visionkit.pipeline.error Code=3 "管道未能完全启动:
CalculatorGraph::Run() 在 运行 中失败:
Calculator::Open() 节点“BoxClassifierCalculator”失败:#vk 输出索引 0 的意外维数:
获得 3D,预期为 2D(BxN,B=1)或 4D(BxHxWxN,B=1,W=1,H=1)。”
UserInfo={com.google.visionkit.status=, NSLocalizedDescription=Pipeline 未能完全启动:
CalculatorGraph::Run() 在 运行 中失败:
Calculator::Open() 节点“BoxClassifierCalculator”失败:#vk 输出索引 0 的意外维数:
得到 3D,预期为 2D(BxN,B=1)或 4D(BxHxWxN,B=1,W=1,H=1)。} .
我已经从 https://github.com/googlesamples/mlkit
下载了 mlkit 示例,视觉项目中有一些类似的东西,(检测鸟类)当我尝试替换我自己的 tflite 文件时,它以与我自己的项目中完全相同的方式中断。
我认为 tflite 的创建方式与 MLVision 的创建方式截然不同。
有什么见解吗? (很抱歉,如果这太明显了,但我对 TensorFlow 和 MLVision 还很陌生)
提前致谢
问题与错误消息中所说的完全相同:got 3D, expected either 2D (BxN with B=1) or 4D (BxHxWxN with B=1, W=1, H=1)
。这意味着您的模型与 ML Kit 不兼容,因为它的张量维度不正确。指定模型兼容性要求 here.
我的完整技术栈是:
- GCP 机器学习愿景。
- 将模型导出为 tflite 格式(来自同一个 GCP 控制台)。
- XCode iOS 发展
- iPhone 11 亲
我正在尝试使用使用 MLKit 的自定义对象检测器和一个在 GCP AutoML Vision 中训练的模型。
我创建了模型并导出为 tflite 文件,但是当尝试执行 objectDetector processImage:visionImage
时,我总是得到错误:
Error Domain=com.google.visionkit.pipeline.error Code=3 "管道未能完全启动:
CalculatorGraph::Run() 在 运行 中失败:
Calculator::Open() 节点“BoxClassifierCalculator”失败:#vk 输出索引 0 的意外维数:
获得 3D,预期为 2D(BxN,B=1)或 4D(BxHxWxN,B=1,W=1,H=1)。”
UserInfo={com.google.visionkit.status=
我已经从 https://github.com/googlesamples/mlkit
下载了 mlkit 示例,视觉项目中有一些类似的东西,(检测鸟类)当我尝试替换我自己的 tflite 文件时,它以与我自己的项目中完全相同的方式中断。
我认为 tflite 的创建方式与 MLVision 的创建方式截然不同。
有什么见解吗? (很抱歉,如果这太明显了,但我对 TensorFlow 和 MLVision 还很陌生)
提前致谢
问题与错误消息中所说的完全相同:got 3D, expected either 2D (BxN with B=1) or 4D (BxHxWxN with B=1, W=1, H=1)
。这意味着您的模型与 ML Kit 不兼容,因为它的张量维度不正确。指定模型兼容性要求 here.