Keras 图像分类损失

Keras Image Classification Loss

我正在尝试制作一个可以识别口袋妖怪的简单 CNN 模型。第一次尝试时,我自己创建了一个非常小的数据集,由 10 种不同口袋妖怪的 100 张图片组成。 在 Python 中使用此代码似乎运行良好。

import tensorflow as tf
import numpy as np

model = tf.keras.models.Sequential()
model.add(tf.keras.layers.Conv2D(32, (3,3), input_shape=(200,200,3), activation='relu'))
model.add(tf.keras.layers.MaxPooling2D((2,2)))
model.add(tf.keras.layers.Conv2D(32, (3,3), activation='relu'))
model.add(tf.keras.layers.MaxPooling2D((2,2)))
model.add(tf.keras.layers.Flatten())
model.add(tf.keras.layers.Dense(units=400, activation='relu'))
model.add(tf.keras.layers.Dense(units=10, activation='sigmoid'))

model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['accuracy'])

train = tf.keras.preprocessing.image.ImageDataGenerator(rescale=1./255, shear_range=0.2, zoom_range=0.2, horizontal_flip=True)
test = tf.keras.preprocessing.image.ImageDataGenerator(rescale=1./255)

training_set= train.flow_from_directory('datasets/starter/train', target_size=(200,200), class_mode='categorical')
val_set= test.flow_from_directory('datasets/starter/test', target_size=(200,200), class_mode='categorical')

history=model.fit_generator(training_set, steps_per_epoch=32, epochs=3, validation_data=val_set, validation_steps=32)

test_image = tf.keras.preprocessing.image.load_img('datasets/starter/val/attempt.png', target_size=(200, 200))
test_image = tf.keras.preprocessing.image.img_to_array(test_image)
test_image = np.expand_dims(test_image, axis=0)
result = model.predict(test_image)
print(training_set.class_indices)
print(result)

test_image2 = tf.keras.preprocessing.image.load_img('datasets/starter/val/attempt2.png', target_size=(200, 200))
test_image2 = tf.keras.preprocessing.image.img_to_array(test_image2)
test_image2 = np.expand_dims(test_image2, axis=0)
result2 = model.predict(test_image2)
print(training_set.class_indices)
print(result2)

最后一个epoch的训练准确率固定为1。 当我尝试预测示例图像时: attempt.png 是一张 Charmander 图片,它的标签是 1,所以我得到这个向量:[[0. 1. 0. 0. ... 0.]] attempt2.png 是一张 Torchic 图片,它的标签是 7,所以我得到:[[0. 0. ... 1. 0. 0. ]]

但是我注意到 'model.compile' 中的损失应该是 'categorical_crossentropy' 而不是 'binary_crossentropy'。使用分类的,我的程序将不再工作。 有人可以帮我理解吗?

您应该尝试使用 Softmax 作为最后一个激活函数,并将分类交叉熵作为损失函数