CNN 分类 model.predict 给出 0 和 1 的数组而不是概率
CNN classification model.predict giving array of 0 and 1 and not the probability
我已经训练了一个 CNN 模型来对我工作正常的数字进行分类。但是我面临的问题是当我使用命令 model.predict() 它给我一个 0 和 1 的数组而不是概率。
如果我将图像传递给模型,我希望 model.predict 的输出符合概率。例如:-
假设我传递数字 4 的图像。
预期的输出是
[[0.2 0.1 0.1 0.1 0.9 ...]]
但我得到的输出是
[[0。 0.0.0.1.0.0.0.0.0.]]
我是神经网络的新手。有人可以帮忙吗?
还要引用它不是过度拟合的情况,0和1的数组也不是概率(我试过乘以100并将类型更改为float32)
下面是我的模型:-
(X_train, y_train), (X_test, y_test) = mnist.load_data()
# reshape to be [samples][pixels][width][height]
X_train = X_train.reshape(X_train.shape[0], 1, 28, 28).astype('float32')
X_test = X_test.reshape(X_test.shape[0], 1, 28, 28).astype('float32')
# normalize inputs from 0-255 to 0-1
X_train = X_train / 255
X_test = X_test / 255
print(y_train)
# one hot encode outputs
y_train = np_utils.to_categorical(y_train)
y_test = np_utils.to_categorical(y_test)
num_classes = y_test.shape[1]
print(y_train)
print(num_classes)
# define the larger model
def larger_model():
# create model
model = Sequential()
model.add(Conv2D(30, (5, 5), input_shape=(1, 28, 28), activation='relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Conv2D(15, (3, 3), activation='relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Dropout(0.2))
model.add(Flatten())
model.add(Dense(128, activation='relu'))
model.add(Dense(50, activation='relu'))
model.add(Dense(num_classes, activation='softmax'))
# Compile model
model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])
return model
#build the model
model = larger_model()
# Fit the model
model.fit(X_train, y_train, validation_data=(X_test, y_test), epochs=10, batch_size=200)
一个可能的原因可能是您的测试数据没有像 train/val 数据那样进行预处理。在调用 model.predict()
之前,您需要确保测试图像像素值 标准化 在 0-1 之间,因为您的模型正在标准化图像上进行训练。
我已经训练了一个 CNN 模型来对我工作正常的数字进行分类。但是我面临的问题是当我使用命令 model.predict() 它给我一个 0 和 1 的数组而不是概率。
如果我将图像传递给模型,我希望 model.predict 的输出符合概率。例如:-
假设我传递数字 4 的图像。 预期的输出是 [[0.2 0.1 0.1 0.1 0.9 ...]] 但我得到的输出是 [[0。 0.0.0.1.0.0.0.0.0.]]
我是神经网络的新手。有人可以帮忙吗?
还要引用它不是过度拟合的情况,0和1的数组也不是概率(我试过乘以100并将类型更改为float32)
下面是我的模型:-
(X_train, y_train), (X_test, y_test) = mnist.load_data()
# reshape to be [samples][pixels][width][height]
X_train = X_train.reshape(X_train.shape[0], 1, 28, 28).astype('float32')
X_test = X_test.reshape(X_test.shape[0], 1, 28, 28).astype('float32')
# normalize inputs from 0-255 to 0-1
X_train = X_train / 255
X_test = X_test / 255
print(y_train)
# one hot encode outputs
y_train = np_utils.to_categorical(y_train)
y_test = np_utils.to_categorical(y_test)
num_classes = y_test.shape[1]
print(y_train)
print(num_classes)
# define the larger model
def larger_model():
# create model
model = Sequential()
model.add(Conv2D(30, (5, 5), input_shape=(1, 28, 28), activation='relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Conv2D(15, (3, 3), activation='relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Dropout(0.2))
model.add(Flatten())
model.add(Dense(128, activation='relu'))
model.add(Dense(50, activation='relu'))
model.add(Dense(num_classes, activation='softmax'))
# Compile model
model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])
return model
#build the model
model = larger_model()
# Fit the model
model.fit(X_train, y_train, validation_data=(X_test, y_test), epochs=10, batch_size=200)
一个可能的原因可能是您的测试数据没有像 train/val 数据那样进行预处理。在调用 model.predict()
之前,您需要确保测试图像像素值 标准化 在 0-1 之间,因为您的模型正在标准化图像上进行训练。