Tensorflow 对象检测 - 将 .pb 文件转换为 tflite

Tensorflow Object Detection - Convert .pb file to tflite

我尝试将冻结的 SSD mobilenet v2 模型转换为 TFLITE 格式以供 android 使用。 这是我的所有步骤:

  1. 我使用 [=66= 使用 TF 对象检测 API 的 train.py 文件重新训练]模型来自模型动物园。 (确定)

  2. 使用 TF 对象检测 API 提供的 export_inference_graph.py 将训练好的 model.ckpt 导出到冻结模型文件. (确定)

  3. 使用 GPU 测试 python 中的冻结图,并且仅允许 CPU。有用。 (确定)

缺点来了,我尝试使用下面的代码:

import tensorflow as tf
tf.enable_eager_execution()
saved_model_dir = 'inference_graph/saved_model/'
converter = tf.contrib.lite.TFLiteConverter.from_saved_model(saved_model_dir,input_arrays=input_arrays,output_arrays=output_arrays,input_shapes={"image_tensor": [1, 832, 832, 3]})
converter.post_training_quantize = True

首先,我尝试不向函数添加输入形状参数,但没有成功。从那时起我读到你可以在那里写任何东西都没有关系。

直到这一行的输出:

INFO:tensorflow:Saver not created because there are no variables in the graph to restore
INFO:tensorflow:The specified SavedModel has no variables; no checkpoints were restored.
INFO:tensorflow:The given SavedModel MetaGraphDef contains SignatureDefs with the following keys: {'serving_default'}
INFO:tensorflow:input tensors info: 
INFO:tensorflow:Tensor's key in saved_model's tensor_map: inputs
INFO:tensorflow: tensor name: image_tensor:0, shape: (-1, -1, -1, 3), type: DT_UINT8
INFO:tensorflow:output tensors info: 
INFO:tensorflow:Tensor's key in saved_model's tensor_map: num_detections
INFO:tensorflow: tensor name: num_detections:0, shape: (-1), type: DT_FLOAT
INFO:tensorflow:Tensor's key in saved_model's tensor_map: detection_boxes
INFO:tensorflow: tensor name: detection_boxes:0, shape: (-1, 100, 4), type: DT_FLOAT
INFO:tensorflow:Tensor's key in saved_model's tensor_map: detection_scores
INFO:tensorflow: tensor name: detection_scores:0, shape: (-1, 100), type: DT_FLOAT
INFO:tensorflow:Tensor's key in saved_model's tensor_map: detection_classes
INFO:tensorflow: tensor name: detection_classes:0, shape: (-1, 100), type: DT_FLOAT
INFO:tensorflow:Saver not created because there are no variables in the graph to restore
INFO:tensorflow:The specified SavedModel has no variables; no checkpoints were restored.
INFO:tensorflow:Froze 0 variables.
INFO:tensorflow:Converted 0 variables to const ops.

然后我想转换:

tflite_quantized_model = converter.convert()

这是输出:

---------------------------------------------------------------------------
RuntimeError                              Traceback (most recent call last)
<ipython-input-6-61a136476642> in <module>
----> 1 tflite_quantized_model = converter.convert()

~/.local/lib/python3.5/site-packages/tensorflow/contrib/lite/python/lite.py in convert(self)
    451           input_tensors=self._input_tensors,
    452           output_tensors=self._output_tensors,
--> 453           **converter_kwargs)
    454     else:
    455       # Graphs without valid tensors cannot be loaded into tf.Session since they

~/.local/lib/python3.5/site-packages/tensorflow/contrib/lite/python/convert.py in toco_convert_impl(input_data, input_tensors, output_tensors, *args, **kwargs)
    340   data = toco_convert_protos(model_flags.SerializeToString(),
    341                              toco_flags.SerializeToString(),
--> 342                              input_data.SerializeToString())
    343   return data
    344 

~/.local/lib/python3.5/site-packages/tensorflow/contrib/lite/python/convert.py in toco_convert_protos(model_flags_str, toco_flags_str, input_data_str)
    133     else:
    134       raise RuntimeError("TOCO failed see console for info.\n%s\n%s\n" %
--> 135                          (stdout, stderr))
    136 
    137 

RuntimeError: TOCO failed see console for info.

我无法在此处复制控制台输出,因此它超过了 30000 个字符的限制,但您可以在此处看到它:https://pastebin.com/UyT2x2Vk

此时请帮忙,我应该怎么做才能让它工作:(

我的配置: Ubuntu16.04,Tensorflow-GPU 1.12

万分感谢!

上周遇到了同样的问题,已按照 here 所述的步骤解决。

基本上问题是他们的主脚本不支持SSD模型。 我没有使用 bazel 来执行此操作,而是使用 tflite_convert 实用程序。

小心 export_tflite_ssd_graph.py 脚本,在使用它之前阅读它的所有选项(主要是 --max_detections 救了我的命)。

希望对您有所帮助。

编辑: 您的第 2 步无效。如果 saved_model 包含 SSD,则无法将其转换为 tflite 模型。 您需要使用 export_tflite_ssd_graph.py 脚本导出经过训练的 model.ckpt 并使用创建的 .pb 文件通过 tflite_convert 工具将其转换为 tflite。