如何使用带有 `num_epochs` 集的 `read_batch_examples` 创建 `input_fn`?

How to create `input_fn` using `read_batch_examples` with `num_epochs` set?

我有一个基本的 input_fn 可以与下面的 Tensorflow Estimators 一起使用。无需设置 num_epochs 参数即可完美运行;获得的张量具有离散形状。传入 num_epochs,因为 None 以外的任何内容都会导致未知形状。我的问题在于在使用 num_epochs 时构建稀疏张量;在不知道输入张量的形状的情况下,我不知道如何一般地创建所述张量。

谁能想出解决这个问题的方法?我希望能够传递 num_epochs=1 以便能够仅评估数据集的 1 次,以及传递给 predict 以产生一组预测数据集的大小,不多也不少。

def input_fn(batch_size):
    examples_op = tf.contrib.learn.read_batch_examples(
        FILE_NAMES,
        batch_size=batch_size,
        reader=tf.TextLineReader,
        num_epochs=1,
        parse_fn=lambda x: tf.decode_csv(x, [tf.constant([''], dtype=tf.string)] * len(HEADERS)))

    examples_dict = {}
    for i, header in enumerate(HEADERS):
        examples_dict[header] = examples_op[:, i]

    continuous_cols = {k: tf.string_to_number(examples_dict[k], out_type=tf.float32)
                       for k in CONTINUOUS_FEATURES}

    # Problems lay here while creating sparse categorical tensors
    categorical_cols = {
        k: tf.SparseTensor(
            indices=[[i, 0] for i in range(examples_dict[k].get_shape()[0])],
            values=examples_dict[k],
            shape=[int(examples_dict[k].get_shape()[0]), 1])
        for k in CATEGORICAL_FEATURES}

    feature_cols = dict(continuous_cols)
    feature_cols.update(categorical_cols)
    label = tf.string_to_number(examples_dict[LABEL], out_type=tf.int32)

    return feature_cols, label

我已经通过创建一个特定于 input_fn 预期功能的函数解决了上述问题;它接受一个密集的列并在不知道形状的情况下创建一个稀疏张量。该功能是使用 tf.rangetf.shape 实现的。事不宜迟,这里是工作通用 input_fn 代码独立于 num_epochs 被设置:

def input_fn(batch_size):
    examples_op = tf.contrib.learn.read_batch_examples(
        FILE_NAMES,
        batch_size=batch_size,
        reader=tf.TextLineReader,
        num_epochs=1,
        parse_fn=lambda x: tf.decode_csv(x, [tf.constant([''], dtype=tf.string)] * len(HEADERS)))

    examples_dict = {}
    for i, header in enumerate(HEADERS):
        examples_dict[header] = examples_op[:, i]

    feature_cols = {k: tf.string_to_number(examples_dict[k], out_type=tf.float32)
                    for k in CONTINUOUS_FEATURES}

    feature_cols.update({k: dense_to_sparse(examples_dict[k])
                         for k in CATEGORICAL_FEATURES})

    label = tf.string_to_number(examples_dict[LABEL], out_type=tf.int32)

    return feature_cols, label


def dense_to_sparse(dense_tensor):
    indices = tf.to_int64(tf.transpose([tf.range(tf.shape(dense_tensor)[0]), tf.zeros_like(dense_tensor, dtype=tf.int32)]))
    values = dense_tensor
    shape = tf.to_int64([tf.shape(dense_tensor)[0], tf.constant(1)])

    return tf.SparseTensor(
        indices=indices,
        values=values,
        shape=shape
    )

希望这对某人有所帮助!