如何正确创建saved_model.pb?

How to correctly create saved_model.pb?

我一直在尝试创建一个 saved_model.pb 文件(来自 .ckpt.meta 文件)以进行推理。我可以成功创建一个包含 saved_model.pb 和变量的文件,但是当我部署我的脚本时,我在预期的张量上得到一个 KeyError

y_probs = [my_predictor._fetch_tensors['y_prob_{}'.format(p)] for p in protocols]

KeyError: 'y_prob_protocol1'

问题可能出在我如何定义我的 inputs/outputs(请参阅最后的代码),因为 feed 和 fetch 张量是空的,如下所示:

my_predictor = predictor.from_saved_model('export')

SavedModelPredictor with feed tensors {} and fetch_tensors {}
saver = tf.train.import_meta_graph(opts.model)
builder = tf.saved_model.builder.SavedModelBuilder(opts.out_path)

with tf.Session() as sess:
    # Restore variables from disk.
    saver.restore(sess, opts.checkpoint)
    print("Model restored.")

    input_tensor = tf.placeholder(tf.float32, shape=(None,128,128,128,1), name='tensors/component_0')
    tensor_1 = tf.placeholder(tf.float32, shape=(None,128,128,128,2), name='pred/Reshape')
    tensor_2 = tf.placeholder(tf.float32, shape=(None,128,128,128,3), name='pred1/Reshape')


    tensor_info_input = tf.saved_model.utils.build_tensor_info(input_tensor)
    tensor_info_1 = tf.saved_model.utils.build_tensor_info(tensor_1)
    tensor_info_2 = tf.saved_model.utils.build_tensor_info(tensor_2)


    prediction_signature = (
        tf.saved_model.signature_def_utils.build_signature_def(
            inputs={'x': tensor_info_input},
            outputs={'y_prob_protocol1': tensor_info_1, 'y_prob_protocol2':tensor_info_2},
            method_name=tf.saved_model.signature_constants.PREDICT_METHOD_NAME))

    builder.add_meta_graph_and_variables(
        sess, [tf.saved_model.tag_constants.SERVING],
        signature_def_map={
            'predict_images':
                prediction_signature,
        })

    builder.save()   

感谢您的帮助!

我怀疑这个错误可能有两个原因:

  1. 恢复的模型(使用检查点保存)可能无法正确link编辑到 builder.save()saved_model.pb 文件中。

  2. 您在 SignatureDef 中使用了 2 个输出,tensor_info_1tensor_info_2。但是它们没有定义(至少在显示的代码中)。根据定义,我的意思是

    y = tf.nn.softmax(tf.matmul(x, w) + b, name='y').

您可以使用这个简单的脚本将检查点和元文件转换为 .pb 文件。但是您必须指定输出节点的名称。

import tensorflow as tf

meta_path = 'model.ckpt-22480.meta' # Your .meta file
output_node_names = ['output:0']    # Output nodes

with tf.Session() as sess:

    # Restore the graph
    saver = tf.train.import_meta_graph(meta_path)

    # Load weights
    saver.restore(sess,tf.train.latest_checkpoint('.'))

    # Freeze the graph
    frozen_graph_def = tf.graph_util.convert_variables_to_constants(
        sess,
        sess.graph_def,
        output_node_names)

    # Save the frozen graph
    with open('output_graph.pb', 'wb') as f:
      f.write(frozen_graph_def.SerializeToString())

这种转换工作量太大。您可以使用 [=20 将模型、图表和 SignatureDefs 直接保存到 .pb file,而不是将模型保存到 Check Points 然后尝试将其转换为 .pb file =] 或使用 export_saved_model

使用 SavedModelBuilder 保存模型的示例代码在下面 link 中给出。

这是Google Tensorflow Serving Team 提供的官方代码,建议遵循此代码(流程和结构)。

https://github.com/tensorflow/serving/blob/master/tensorflow_serving/example/mnist_saved_model.py