为深度学习模型调整图像大小的正确方法

Proper way of resizing image for Deep Learning models

我是深度学习和 Tensorflow 的初学者。在预处理部分,我一次又一次地停留在我必须为某些特定的 NN 体系结构调整图像的特定尺寸的部分。我用谷歌搜索并尝试了不同的方法,但都是徒劳的。

例如,我按照以下步骤将 AlexNet 的图像大小调整为 227 x 227:

height = 227
width = 227
dim = (width, height)

x_train = np.array([cv2.resize(img, dim) for img in x_train[:,:,:]])
x_valid = np.array([cv2.resize(img, dim) for img in x_valid[:,:,:]])

x_train = tf.expand_dims(x_train, axis=-1)
x_valid = tf.expand_dims(x_valid, axis=-1)

我正在尝试使用 cv2 调整图像的大小,但在展开后,尺寸变为:

(227, 227, 1)

而我希望它们是:

(227, 227, 3)

那么,有没有更好的方法来做到这一点?

脚本中的以下行导致了问题

x_train = np.array([cv2.resize(img, dim) for img in x_train[:,:,:]])

改为

x_train = np.array([cv2.resize(img, dim) for img in x_train])

禁食的一个选择是使用 tf.data.Dataset 创建一个数据集,然后使用 tf.image.resize 编写一个调整图像大小的函数,如下所示:

import tensorflow as tf
import matplotlib.pyplot as plt

(X_train, y_train), (X_test, y_test) = tf.keras.datasets.cifar10.load_data()

train_dataset = tf.data.Dataset.from_tensor_slices((X_train, y_train))
test_dataset  = tf.data.Dataset.from_tensor_slices((X_test, y_test))


HEIGHT = 227
WIDTH = 227

def resize_preprocess(image, label):
    image = tf.image.resize(image, (HEIGHT, WIDTH)) / 255.0
    return image, label


train_dataset = train_dataset.map(resize_preprocess, num_parallel_calls=tf.data.AUTOTUNE)
test_dataset  = test_dataset.map(resize_preprocess, num_parallel_calls=tf.data.AUTOTUNE)


for image, label in train_dataset.take(1):
    print(image.shape)
    plt.imshow(image), plt.axis('off')
    plt.show()

输出:

(227, 227, 3)