如何提高 CNN 模型的准确性
How Can I Increase My CNN Model's Accuracy
我建立了一个 cnn 模型,class将面部情绪定义为快乐、悲伤、精力充沛和中性的面孔。我使用了 Vgg16 预训练模型并冻结了所有层。经过 50 个 epoch 的训练后,我的模型的测试精度为 0.65,验证损失约为 0.8。
我的训练数据文件夹有 16000(4x4000) 个,验证数据文件夹有 2000(4x500) 个,测试数据文件夹有 4000(4x1000) 个 rgb 图像。
1)您对提高模型精度有何建议?
2)我尝试用我的模型做一些预测,预测的 class 总是一样的。什么可能导致问题?
到目前为止我尝试了什么?
- 添加 dropout 层 (0.5)
- 在最后一层之前添加Dense (256, relu)
- 随机排列训练数据和验证数据。
- 将学习率降低到 1e-5
但我无法提高验证和测试的准确性。
我的代码
train_src = "/content/drive/MyDrive/Affectnet/train_class/"
val_src = "/content/drive/MyDrive/Affectnet/val_class/"
test_src="/content/drive/MyDrive/Affectnet/test_classs/"
train_datagen = tensorflow.keras.preprocessing.image.ImageDataGenerator(
rescale=1./255,
shear_range=0.2,
zoom_range=0.2,
horizontal_flip=True,
)
train_generator = train_datagen.flow_from_directory(
train_src,
target_size=(224,224 ),
batch_size=32,
class_mode='categorical',
shuffle=True
)
validation_datagen = tensorflow.keras.preprocessing.image.ImageDataGenerator(
rescale=1./255
)
validation_generator = validation_datagen.flow_from_directory(
val_src,
target_size=(224, 224),
batch_size=32,
class_mode='categorical',
shuffle=True
)
conv_base = tensorflow.keras.applications.VGG16(weights='imagenet',
include_top=False,
input_shape=(224, 224, 3)
)
for layer in conv_base.layers:
layer.trainable = False
model = tensorflow.keras.models.Sequential()
# VGG16 is added as convolutional layer.
model.add(conv_base)
# Layers are converted from matrices to a vector.
model.add(tensorflow.keras.layers.Flatten())
# Our neural layer is added.
model.add(tensorflow.keras.layers.Dropout(0.5))
model.add(tensorflow.keras.layers.Dense(256, activation='relu'))
model.add(tensorflow.keras.layers.Dense(4, activation='softmax'))
model.compile(loss='categorical_crossentropy',
optimizer=tensorflow.keras.optimizers.Adam(lr=1e-5),
metrics=['acc'])
history = model.fit_generator(
train_generator,
epochs=50,
steps_per_epoch=100,
validation_data=validation_generator,
validation_steps=5,
workers=8
)
Loss and accuracy
嗯,有几件事。对于训练集,你说你有 16,0000 张图像。然而,如果批量大小为 32 并且 steps_per_epoch= 100,那么对于任何给定的时期,您仅在 3,200 张图像上进行训练。同样,您有 2000 张验证图像,但批量大小为 32 且 validation_steps = 5,您仅在 5 X 32 = 160 张图像上进行验证。
现在 Vgg 是一个不错的模型,但我没有使用它,因为它非常大,这会显着增加训练时间,而且还有其他用于迁移学习的模型更小但更准确。我建议您尝试使用 EfficientNetB3。使用代码
conv_base = tensorflow.keras.applications.EfficientNetB3(weights='imagenet',
include_top=False,
input_shape=(224, 224, 3)
pooling='max'
)
使用 pooling='max' 可以消除 Flatten 层。此外,EfficientNet 模型期望像素在 0 到 255 范围内,因此请删除生成器中的 rescale=1/255。
接下来要做的是使用可调节的学习率。这可以使用 Keras 回调来完成。相关文档是 here. You want to use the ReduceLROnPlateau callback. Documentation for that is here. 设置它以监控验证损失。我建议的代码如下
rlronp=tf.keras.callbacks.ReduceLROnPlateau(monitor="val_loss",factor=0.5,
patience=1, verbose=1)
我还建议您使用回调 EarlyStopping。相关文档是 here. 。我推荐的代码如下所示
estop=tf.keras.callbacks.EarlyStopping( monitor="val_loss", patience=4, verbose=1,
restore_best_weights=True)
现在model.fit包括
callbacks=[rlronp, estop]
将你的学习率设置为 .001。设置纪元 = 50。如果被触发,estop 回调将 return 您的模型加载具有最低验证损失的 epoch 的权重。我注意到你有代码
for layer in conv_base.layers:
layer.trainable = False
我知道教程告诉你这样做,但我得到了更好的结果让它可以训练,我已经在数百个模型上这样做了。
我建立了一个 cnn 模型,class将面部情绪定义为快乐、悲伤、精力充沛和中性的面孔。我使用了 Vgg16 预训练模型并冻结了所有层。经过 50 个 epoch 的训练后,我的模型的测试精度为 0.65,验证损失约为 0.8。
我的训练数据文件夹有 16000(4x4000) 个,验证数据文件夹有 2000(4x500) 个,测试数据文件夹有 4000(4x1000) 个 rgb 图像。
1)您对提高模型精度有何建议?
2)我尝试用我的模型做一些预测,预测的 class 总是一样的。什么可能导致问题?
到目前为止我尝试了什么?
- 添加 dropout 层 (0.5)
- 在最后一层之前添加Dense (256, relu)
- 随机排列训练数据和验证数据。
- 将学习率降低到 1e-5
但我无法提高验证和测试的准确性。
我的代码
train_src = "/content/drive/MyDrive/Affectnet/train_class/"
val_src = "/content/drive/MyDrive/Affectnet/val_class/"
test_src="/content/drive/MyDrive/Affectnet/test_classs/"
train_datagen = tensorflow.keras.preprocessing.image.ImageDataGenerator(
rescale=1./255,
shear_range=0.2,
zoom_range=0.2,
horizontal_flip=True,
)
train_generator = train_datagen.flow_from_directory(
train_src,
target_size=(224,224 ),
batch_size=32,
class_mode='categorical',
shuffle=True
)
validation_datagen = tensorflow.keras.preprocessing.image.ImageDataGenerator(
rescale=1./255
)
validation_generator = validation_datagen.flow_from_directory(
val_src,
target_size=(224, 224),
batch_size=32,
class_mode='categorical',
shuffle=True
)
conv_base = tensorflow.keras.applications.VGG16(weights='imagenet',
include_top=False,
input_shape=(224, 224, 3)
)
for layer in conv_base.layers:
layer.trainable = False
model = tensorflow.keras.models.Sequential()
# VGG16 is added as convolutional layer.
model.add(conv_base)
# Layers are converted from matrices to a vector.
model.add(tensorflow.keras.layers.Flatten())
# Our neural layer is added.
model.add(tensorflow.keras.layers.Dropout(0.5))
model.add(tensorflow.keras.layers.Dense(256, activation='relu'))
model.add(tensorflow.keras.layers.Dense(4, activation='softmax'))
model.compile(loss='categorical_crossentropy',
optimizer=tensorflow.keras.optimizers.Adam(lr=1e-5),
metrics=['acc'])
history = model.fit_generator(
train_generator,
epochs=50,
steps_per_epoch=100,
validation_data=validation_generator,
validation_steps=5,
workers=8
)
Loss and accuracy
嗯,有几件事。对于训练集,你说你有 16,0000 张图像。然而,如果批量大小为 32 并且 steps_per_epoch= 100,那么对于任何给定的时期,您仅在 3,200 张图像上进行训练。同样,您有 2000 张验证图像,但批量大小为 32 且 validation_steps = 5,您仅在 5 X 32 = 160 张图像上进行验证。 现在 Vgg 是一个不错的模型,但我没有使用它,因为它非常大,这会显着增加训练时间,而且还有其他用于迁移学习的模型更小但更准确。我建议您尝试使用 EfficientNetB3。使用代码
conv_base = tensorflow.keras.applications.EfficientNetB3(weights='imagenet',
include_top=False,
input_shape=(224, 224, 3)
pooling='max'
)
使用 pooling='max' 可以消除 Flatten 层。此外,EfficientNet 模型期望像素在 0 到 255 范围内,因此请删除生成器中的 rescale=1/255。 接下来要做的是使用可调节的学习率。这可以使用 Keras 回调来完成。相关文档是 here. You want to use the ReduceLROnPlateau callback. Documentation for that is here. 设置它以监控验证损失。我建议的代码如下
rlronp=tf.keras.callbacks.ReduceLROnPlateau(monitor="val_loss",factor=0.5,
patience=1, verbose=1)
我还建议您使用回调 EarlyStopping。相关文档是 here. 。我推荐的代码如下所示
estop=tf.keras.callbacks.EarlyStopping( monitor="val_loss", patience=4, verbose=1,
restore_best_weights=True)
现在model.fit包括
callbacks=[rlronp, estop]
将你的学习率设置为 .001。设置纪元 = 50。如果被触发,estop 回调将 return 您的模型加载具有最低验证损失的 epoch 的权重。我注意到你有代码
for layer in conv_base.layers:
layer.trainable = False
我知道教程告诉你这样做,但我得到了更好的结果让它可以训练,我已经在数百个模型上这样做了。