Keras CNN 图像和内核大小不匹配,即使在图像转换以适应后也是如此

Keras CNN images and kernel size mismatch even after image transformation to fit

我正在尝试 运行 一个类似于 Keras documantation "VGG-like convnet" 中的 CNN,但用于一组自定义图像和二进制 class化而不是 10-class 输出.

当我尝试拟合 CNN 时,我得到了这个冗长的错误,我认为它告诉我我的输入图像大小不适合 CNN 输入。

ValueError: GpuDnnConv images and kernel must have the same stack size

Apply node that caused the error: GpuDnnConv{algo='small', inplace=True}(GpuContiguous.0, GpuContiguous.0, GpuAllocEmpty.0, GpuDnnConvDesc{border_mode='valid', subsample=(1, 1), conv_mode='conv', precision='float32'}.0, Constant{1.0}, Constant{0.0})
Toposort index: 130
Inputs types: [CudaNdarrayType(float32, 4D), CudaNdarrayType(float32, 4D), CudaNdarrayType(float32, 4D), <theano.gof.type.CDataType object at 0x7f0eefc8d790>, Scalar(float32), Scalar(float32)]
Inputs shapes: [(32, 232, 300, 3), (300, 1, 3, 3), (32, 300, 298, 1), 'No shapes', (), ()]
Inputs strides: [(208800, 900, 3, 1), (9, 0, 3, 1), (89400, 298, 1, 0), 'No strides', (), ()]
Inputs values: ['not shown', 'not shown', 'not shown', <PyCObject object at 0x7f0efaba8e68>, 1.0, 0.0]
Inputs name: ('image', 'kernel', 'output', 'descriptor', 'alpha', 'beta')

问题是我认为我重塑了我所有的图像以适应。我的输入是一堆 4000 个 232x300 像素的 RBG 图像,输出是一个包含 4000 个布尔值的数组。

输入im_list.shape Out[49]: (4000, 232, 300, 3)

输出np.asarray(cls).shape Out[50]: (4000,)

这是构建CNN的函数

CNN = buildCNN(3, 232, 300, 2)
CNN.fit(im_list, cls, batch_size=32, nb_epoch=1)

    def buildCNN(depth,width,height,outputShape):
    CNN = Sequential()
        # input: 232x300 images with 3 channels -> (3, 100, 100) tensors.
        # this applies 32 convolution filters of size 3x3 each.
        CNN.add(Convolution2D(32, 3, 3, border_mode='valid', input_shape=(depth,width,height)))
        CNN.add(Activation('relu'))
        CNN.add(Convolution2D(32, 3, 3))
        CNN.add(Activation('relu'))
        CNN.add(MaxPooling2D(pool_size=(2, 2)))
        CNN.add(Dropout(0.25))
        #
        CNN.add(Convolution2D(64, 3, 3, border_mode='valid'))
        CNN.add(Activation('relu'))
        CNN.add(Convolution2D(64, 3, 3))
        CNN.add(Activation('relu'))
        CNN.add(MaxPooling2D(pool_size=(2, 2)))
        CNN.add(Dropout(0.25))
        #
        CNN.add(Flatten())
        # Note: Keras does automatic shape inference.
        CNN.add(Dense(256))
        CNN.add(Activation('relu'))
        CNN.add(Dropout(0.5))
        #
        CNN.add(Dense(outputShape))
        CNN.add(Activation('softmax'))
        #
        sgd = SGD(lr=0.1, decay=1e-6, momentum=0.9, nesterov=True)
        CNN.compile(loss='categorical_crossentropy', optimizer=sgd)
        #
    return CNN

我用头撞墙的时间已经够长了,以至于我想也许其他人也遇到过这个问题。有什么想法吗?提前致谢。

您将输入指定为 (depth,width,height)。所以你的数组必须有维度 (N,depth,width,height),其中 N 是训练样本的数量。

您实际传递的输入 (4000, 232, 300, 3) 不匹配。它应该重塑为 (4000, depth, width, height)。这意味着您必须调整每个图像的大小,并对坐标轴重新排序。

以上答案是正确的:为了后代,我的问题通过一个简单的方法解决了:

im_list = im_list.transpose((0,3,1,2))