我的损失是 "nan" 并且在迁移学习中准确度是“ 0.0000e+00 ”:InceptionV3

My loss is "nan" and accuracy is " 0.0000e+00 " in Transfer learning: InceptionV3

我正在研究迁移学习。我的用例是对两类图像进行分类。我使用 InceptionV3 对图像进行分类。在训练我的模型时,我得到 nan 作为损失和 0.0000e+00 作为每个时代的准确性。我使用了 20 个 epoch,因为我的数据量很小:我有 1000 张图像用于训练,100 张用于测试,每批 5 条记录。

from keras.applications.inception_v3 import InceptionV3
from keras.preprocessing import image
from keras.models import Model
from keras.layers import Dense, GlobalAveragePooling2D
from keras import backend as K

# create the base pre-trained model
base_model = InceptionV3(weights='imagenet', include_top=False)

# add a global spatial average pooling layer
x = base_model.output
x = GlobalAveragePooling2D()(x)
# let's add a fully-connected layer
x = Dense(1024, activation='relu')(x)

x = Dense(512, activation='relu')(x)
x = Dense(32, activation='relu')(x)
# and a logistic layer -- we have 2 classes
predictions = Dense(1, activation='softmax')(x)

# this is the model we will train
model = Model(inputs=base_model.input, outputs=predictions)


for layer in base_model.layers:
    layer.trainable = False

# we chose to train the top 2 inception blocks, i.e. we will freeze
# the first 249 layers and unfreeze the rest:
for layer in model.layers[:249]:
   layer.trainable = False
for layer in model.layers[249:]:
   layer.trainable = True

model.compile(loss="binary_crossentropy", optimizer="adam", metrics=["accuracy"])
from keras.preprocessing.image import ImageDataGenerator
train_datagen = ImageDataGenerator(
        rescale=1./255,
        shear_range=0.2,
        zoom_range=0.2,
        horizontal_flip=True)

test_datagen = ImageDataGenerator(rescale=1./255)

training_set = train_datagen.flow_from_directory(
        'C:/Users/Desktop/Transfer/train/',
        target_size=(64, 64),
        batch_size=5,
        class_mode='binary')

test_set = test_datagen.flow_from_directory(
        'C:/Users/Desktop/Transfer/test/',
        target_size=(64, 64),
        batch_size=5,
        class_mode='binary')

model.fit_generator(
        training_set,
        steps_per_epoch=1000,
        epochs=20,
        validation_data=test_set,
        validation_steps=100)

听起来你的渐变正在爆炸。可能有以下几个原因:

  • 检查您的输入是否正确生成。例如使用 flow_from_directory
  • save_to_dir 参数
  • 由于批量大小为 5,因此将 steps_per_epoch1000 修改为 1000/5=200
  • 使用sigmoid激活而不是softmax
  • 在 Adam 中设置较低的学习率;为此,您需要像 adam = Adam(0.0001) 一样单独创建优化器并将其传递给 model.compile(..., optimizer=adam)
  • 尝试 VGG16 而不是 InceptionV3

如果您尝试了以上所有方法,请告诉我们。

在单个 class 的情况下,使用 Softmax 进行激活没有意义。您的输出值将始终由自身规范,因此等于 1。softmax 的目的是使值总和为 1。在单个值的情况下,您将得到它 == 1。我相信在某个时刻您得到0作为预测值,导致除法为零,损失值为NaN。

您应该通过以下方式将 classes 的数量更改为 2:

  • predictions = Dense(2, activation='softmax')(x)
  • class_mode='categorical'flow_from_directory
  • loss="categorical_crossentropy"

或者最后一层使用sigmoid激活函数