使用 TensorFlow 数据集 API 和 Pandas 的输入管道?

Input pipeline using TensorFlow Dataset API and Pandas?

我正在尝试创建一个 TensorFlow 数据集,它接受 CSV 文件的路径名列表并创建训练数据批次。首先,我创建了一个解析函数,它使用 Pandas 来读取前 n 行。我将此函数作为 Dataset

中 'map' 方法的参数
def _get_data_for_dataset(file_name,rows=100):
  print(file_name.decode())

  df_input=pd.read_csv(os.path.join(folder_name, file_name.decode()),
                     usecols =['Wind_MWh','Actual_Load_MWh'],nrows = rows)

  X_data = df_input.as_matrix()
  X_data.astype('float32', copy=False)

  return X_data

 dataset = tf.data.Dataset.from_tensor_slices(file_names)
 dataset = dataset2.map(lambda file_name: tf.py_func(_get_data_for_dataset,[file_name,100], tf.float64))
 dataset= dataset.batch(2) #Create batches
 iter = dataset.make_one_shot_iterator()
 get_batch = iter.get_next()

with tf.Session() as sess:
  print(sess.run(get_batch).shape)

上面的代码有效,但不是生成形状为 (200,2) 的数据集,而是生成形状为 (2, 100, 2) 的数据集。请帮忙。

我终于从那里得到了答案 我发布了完整的代码,以防它可以帮助其他想要一起使用 Pandas 和数据集 API 的人。

folder_name = './data/power_data/'
file_names = os.listdir(folder_name)

def _get_data_for_dataset(file_name):
    df_input=pd.read_csv(os.path.join(folder_name, file_name.decode()),
                         usecols=['Wind_MWh', 'Actual_Load_MWh'])
    X_data = df_input.as_matrix()
    return X_data.astype('float32', copy=False)

dataset = tf.data.Dataset.from_tensor_slices(file_names)

# Use `Dataset.from_tensor_slices()` to make a `Dataset` from the output of 
# the `tf.py_func()` op.
dataset = dataset.flat_map(lambda file_name: tf.data.Dataset.from_tensor_slices(
    tf.py_func(_get_data_for_dataset, [file_name], tf.float32)))

dataset = dataset.batch(100)

iter = dataset.make_one_shot_iterator()
get_batch = iter.get_next()

  with tf.Session() as sess:
    print(sess.run(get_batch))