从 TFRecordDataset 获取数据集作为 numpy 数组
Get data set as numpy array from TFRecordDataset
我正在使用新的 tf.data
API 为 CIFAR10 数据集创建迭代器。我正在从两个 .tfrecord 文件中读取数据。一个保存训练数据 (train.tfrecords),另一个保存测试数据 (test.tfrecords)。这一切都很好。然而,在某些时候,我需要两个数据集(训练数据和测试数据)作为 numpy 数组。
是否可以从 tf.data.TFRecordDataset
对象中检索数据集作为 numpy 数组?
您可以使用 tf.data.Dataset.batch()
transformation and tf.contrib.data.get_single_element()
来执行此操作。
作为复习,dataset.batch(n)
将占据 dataset
的 n
个连续元素,并通过连接每个组件将它们转换为一个元素。这要求所有元素的每个组件都具有固定的形状。如果 n
大于 dataset
中的元素个数(或者 n
没有精确划分元素个数),那么最后一批可以更小。因此,您可以为 n
选择一个较大的值并执行以下操作:
import numpy as np
import tensorflow as tf
# Insert your own code for building `dataset`. For example:
dataset = tf.data.TFRecordDataset(...) # A dataset of tf.string records.
dataset = dataset.map(...) # Extract components from each tf.string record.
# Choose a value of `max_elems` that is at least as large as the dataset.
max_elems = np.iinfo(np.int64).max
dataset = dataset.batch(max_elems)
# Extracts the single element of a dataset as one or more `tf.Tensor` objects.
# No iterator needed in this case!
whole_dataset_tensors = tf.contrib.data.get_single_element(dataset)
# Create a session and evaluate `whole_dataset_tensors` to get arrays.
with tf.Session() as sess:
whole_dataset_arrays = sess.run(whole_dataset_tensors)
我正在使用新的 tf.data
API 为 CIFAR10 数据集创建迭代器。我正在从两个 .tfrecord 文件中读取数据。一个保存训练数据 (train.tfrecords),另一个保存测试数据 (test.tfrecords)。这一切都很好。然而,在某些时候,我需要两个数据集(训练数据和测试数据)作为 numpy 数组。
是否可以从 tf.data.TFRecordDataset
对象中检索数据集作为 numpy 数组?
您可以使用 tf.data.Dataset.batch()
transformation and tf.contrib.data.get_single_element()
来执行此操作。
作为复习,dataset.batch(n)
将占据 dataset
的 n
个连续元素,并通过连接每个组件将它们转换为一个元素。这要求所有元素的每个组件都具有固定的形状。如果 n
大于 dataset
中的元素个数(或者 n
没有精确划分元素个数),那么最后一批可以更小。因此,您可以为 n
选择一个较大的值并执行以下操作:
import numpy as np
import tensorflow as tf
# Insert your own code for building `dataset`. For example:
dataset = tf.data.TFRecordDataset(...) # A dataset of tf.string records.
dataset = dataset.map(...) # Extract components from each tf.string record.
# Choose a value of `max_elems` that is at least as large as the dataset.
max_elems = np.iinfo(np.int64).max
dataset = dataset.batch(max_elems)
# Extracts the single element of a dataset as one or more `tf.Tensor` objects.
# No iterator needed in this case!
whole_dataset_tensors = tf.contrib.data.get_single_element(dataset)
# Create a session and evaluate `whole_dataset_tensors` to get arrays.
with tf.Session() as sess:
whole_dataset_arrays = sess.run(whole_dataset_tensors)