keras中的Deconvolution2D层

Deconvolution2D layer in keras

这一层还没有很好的记录,我在弄清楚如何使用它时遇到了一些麻烦。
我正在尝试类似的东西:

input_img = Input(shape=(1, h, w))
x = Convolution2D(16, 7, 7, activation='relu', border_mode='valid')(input_img)
d = Deconvolution2D(1, 7, 7, (None, 1, 2*h, 2*w))
x = d(x)

但是当我尝试写 d.output_shape 时,我得到了图像的原始形状而不是两倍大小(这是我所期望的)。
任何帮助将不胜感激!

简答:如果您希望输出确实是输入的两倍大,则需要将 subsample=(2,2) 添加到 Deconvolution2D。


更长的答案:Deconvolution2D 严重没有记录,您必须仔细阅读它的代码才能了解如何使用它。

首先,您必须了解反卷积层的工作原理(如果您已经了解所有细节,请跳过此部分)。反卷积,不像它的名字所暗示的那样,只是简单地将标准卷积层的反向传播(梯度计算方法)应用于反卷积层的输入。 deconvolution layer的"kernel size"其实就是上面提到的backprop步骤的virtual convolution layer的kernel size。虽然给定了卷积核的大小及其步幅,但计算卷积层的输出形状很简单(假设没有填充它是 (input - kernel) // stride + 1),但反之则不然。事实上,可以有不止一种可能的输入形状与卷积层的给定输出形状相匹配(这是因为整数除法不可逆)。这意味着对于反卷积层,不能简单地根据输入形状(隐式已知)、内核大小和步幅直接确定输出形状——这就是我们在初始化层时需要知道输出形状的原因。当然,由于反卷积层的定义方式,对于某些输入形状,您会在其输出中出现未定义的空洞,如果我们禁止这些情况,那么我们实际上 可以 推断输出形状。

回到 Keras 以及上面的实现方式。令人困惑的是,output_shape 参数实际上并没有用于确定层的输出形状,而是他们试图从输入、内核大小和步幅中推导出它,同时假设只有有效的 output_shapes提供(虽然它没有在代码中检查是这种情况)。 output_shape 本身仅用作反向传播步骤的输入。因此,您还必须指定步幅参数(Keras 中的子样本)以获得所需的结果(Keras 可以根据给定的输入形状、输出形状和内核大小确定该结果)。