MNIST 数据集中的图像是如何转换的?
How are images in MNIST dataset transformed?
在 cnn_mnist.py 示例中,脚本首先加载训练数据和测试数据,如您在行 120
到 124
中所见。当我打印 print(train_data.shape)
时,我得到 (55000, 784)
。因此,我解释了这里的火车集,其中每个维度 = 784
具有 55000
个图像。我的问题是:维度是如何生成的?是将 MNIST 数据集中的每张图像转换成一维向量吗?我想了解这一点,因为我想用我自己收集的手写图像集来提供这个脚本。
谢谢
你可以简单理解一下,由于MNIST数据中的每张图片都是28x28px,所以当我们将图片转换成一维矩阵时,它的大小就变成了28x28=784。
MNIST image size is 28 × 28 pixel, so it is represented as 784 1-d array.
矩阵中的每个值代表0到255之间的值。
在 cnn_mnist.py 示例中,脚本首先加载训练数据和测试数据,如您在行 120
到 124
中所见。当我打印 print(train_data.shape)
时,我得到 (55000, 784)
。因此,我解释了这里的火车集,其中每个维度 = 784
具有 55000
个图像。我的问题是:维度是如何生成的?是将 MNIST 数据集中的每张图像转换成一维向量吗?我想了解这一点,因为我想用我自己收集的手写图像集来提供这个脚本。
谢谢
你可以简单理解一下,由于MNIST数据中的每张图片都是28x28px,所以当我们将图片转换成一维矩阵时,它的大小就变成了28x28=784。
MNIST image size is 28 × 28 pixel, so it is represented as 784 1-d array.
矩阵中的每个值代表0到255之间的值。