如何使用带有 `num_epochs` 集的 `read_batch_examples` 创建 `input_fn`?
How to create `input_fn` using `read_batch_examples` with `num_epochs` set?
我有一个基本的 input_fn
可以与下面的 Tensorflow Estimators 一起使用。无需设置 num_epochs
参数即可完美运行;获得的张量具有离散形状。传入 num_epochs
,因为 None
以外的任何内容都会导致未知形状。我的问题在于在使用 num_epochs
时构建稀疏张量;在不知道输入张量的形状的情况下,我不知道如何一般地创建所述张量。
谁能想出解决这个问题的方法?我希望能够传递 num_epochs=1
以便能够仅评估数据集的 1 次,以及传递给 predict
以产生一组预测数据集的大小,不多也不少。
def input_fn(batch_size):
examples_op = tf.contrib.learn.read_batch_examples(
FILE_NAMES,
batch_size=batch_size,
reader=tf.TextLineReader,
num_epochs=1,
parse_fn=lambda x: tf.decode_csv(x, [tf.constant([''], dtype=tf.string)] * len(HEADERS)))
examples_dict = {}
for i, header in enumerate(HEADERS):
examples_dict[header] = examples_op[:, i]
continuous_cols = {k: tf.string_to_number(examples_dict[k], out_type=tf.float32)
for k in CONTINUOUS_FEATURES}
# Problems lay here while creating sparse categorical tensors
categorical_cols = {
k: tf.SparseTensor(
indices=[[i, 0] for i in range(examples_dict[k].get_shape()[0])],
values=examples_dict[k],
shape=[int(examples_dict[k].get_shape()[0]), 1])
for k in CATEGORICAL_FEATURES}
feature_cols = dict(continuous_cols)
feature_cols.update(categorical_cols)
label = tf.string_to_number(examples_dict[LABEL], out_type=tf.int32)
return feature_cols, label
我已经通过创建一个特定于 input_fn
预期功能的函数解决了上述问题;它接受一个密集的列并在不知道形状的情况下创建一个稀疏张量。该功能是使用 tf.range
和 tf.shape
实现的。事不宜迟,这里是工作通用 input_fn
代码独立于 num_epochs
被设置:
def input_fn(batch_size):
examples_op = tf.contrib.learn.read_batch_examples(
FILE_NAMES,
batch_size=batch_size,
reader=tf.TextLineReader,
num_epochs=1,
parse_fn=lambda x: tf.decode_csv(x, [tf.constant([''], dtype=tf.string)] * len(HEADERS)))
examples_dict = {}
for i, header in enumerate(HEADERS):
examples_dict[header] = examples_op[:, i]
feature_cols = {k: tf.string_to_number(examples_dict[k], out_type=tf.float32)
for k in CONTINUOUS_FEATURES}
feature_cols.update({k: dense_to_sparse(examples_dict[k])
for k in CATEGORICAL_FEATURES})
label = tf.string_to_number(examples_dict[LABEL], out_type=tf.int32)
return feature_cols, label
def dense_to_sparse(dense_tensor):
indices = tf.to_int64(tf.transpose([tf.range(tf.shape(dense_tensor)[0]), tf.zeros_like(dense_tensor, dtype=tf.int32)]))
values = dense_tensor
shape = tf.to_int64([tf.shape(dense_tensor)[0], tf.constant(1)])
return tf.SparseTensor(
indices=indices,
values=values,
shape=shape
)
希望这对某人有所帮助!
我有一个基本的 input_fn
可以与下面的 Tensorflow Estimators 一起使用。无需设置 num_epochs
参数即可完美运行;获得的张量具有离散形状。传入 num_epochs
,因为 None
以外的任何内容都会导致未知形状。我的问题在于在使用 num_epochs
时构建稀疏张量;在不知道输入张量的形状的情况下,我不知道如何一般地创建所述张量。
谁能想出解决这个问题的方法?我希望能够传递 num_epochs=1
以便能够仅评估数据集的 1 次,以及传递给 predict
以产生一组预测数据集的大小,不多也不少。
def input_fn(batch_size):
examples_op = tf.contrib.learn.read_batch_examples(
FILE_NAMES,
batch_size=batch_size,
reader=tf.TextLineReader,
num_epochs=1,
parse_fn=lambda x: tf.decode_csv(x, [tf.constant([''], dtype=tf.string)] * len(HEADERS)))
examples_dict = {}
for i, header in enumerate(HEADERS):
examples_dict[header] = examples_op[:, i]
continuous_cols = {k: tf.string_to_number(examples_dict[k], out_type=tf.float32)
for k in CONTINUOUS_FEATURES}
# Problems lay here while creating sparse categorical tensors
categorical_cols = {
k: tf.SparseTensor(
indices=[[i, 0] for i in range(examples_dict[k].get_shape()[0])],
values=examples_dict[k],
shape=[int(examples_dict[k].get_shape()[0]), 1])
for k in CATEGORICAL_FEATURES}
feature_cols = dict(continuous_cols)
feature_cols.update(categorical_cols)
label = tf.string_to_number(examples_dict[LABEL], out_type=tf.int32)
return feature_cols, label
我已经通过创建一个特定于 input_fn
预期功能的函数解决了上述问题;它接受一个密集的列并在不知道形状的情况下创建一个稀疏张量。该功能是使用 tf.range
和 tf.shape
实现的。事不宜迟,这里是工作通用 input_fn
代码独立于 num_epochs
被设置:
def input_fn(batch_size):
examples_op = tf.contrib.learn.read_batch_examples(
FILE_NAMES,
batch_size=batch_size,
reader=tf.TextLineReader,
num_epochs=1,
parse_fn=lambda x: tf.decode_csv(x, [tf.constant([''], dtype=tf.string)] * len(HEADERS)))
examples_dict = {}
for i, header in enumerate(HEADERS):
examples_dict[header] = examples_op[:, i]
feature_cols = {k: tf.string_to_number(examples_dict[k], out_type=tf.float32)
for k in CONTINUOUS_FEATURES}
feature_cols.update({k: dense_to_sparse(examples_dict[k])
for k in CATEGORICAL_FEATURES})
label = tf.string_to_number(examples_dict[LABEL], out_type=tf.int32)
return feature_cols, label
def dense_to_sparse(dense_tensor):
indices = tf.to_int64(tf.transpose([tf.range(tf.shape(dense_tensor)[0]), tf.zeros_like(dense_tensor, dtype=tf.int32)]))
values = dense_tensor
shape = tf.to_int64([tf.shape(dense_tensor)[0], tf.constant(1)])
return tf.SparseTensor(
indices=indices,
values=values,
shape=shape
)
希望这对某人有所帮助!