CNN:为什么将相同的激活图堆叠在一起

CNN: Why stack same activation maps on top of each other

我想知道为什么我们将基本相同的激活图堆叠在一起?因为它总是对相同的输入应用相同的过滤器,所以它不会总是相同的激活图吗?

如果是这样,我们甚至不需要重新计算激活图,只需复制N次激活图即可。这为我们提供了哪些额外信息?是的,我们再次创建一个具有深度(输出体积)的层,但如果它是相同的值,其背后的合理性是什么?

来源:http://cs231n.stanford.edu/slides/2017/cs231n_2017_lecture5.pdf

这不是同一个卷积,每个激活图(独立权重)都有独立的内核(过滤器),因此它们是完全不同的。没有它,在卷积之后我们只会提取一个"type of feature",比如说边缘;而要让 CNN 发挥作用,我们需要大量这样的东西。

在提供的示例中,"green 5x5x3 filter" 生成一个绿色激活图,然后您有单独的 "blue 5x5x3 filter" 生成蓝色激活图,依此类推。

实际上我们不会在每个 other.It 的顶部堆叠相同的激活图,只是每个激活图的形状保持相同(在您的情况下,它是 5*5*3)。但是不同激活图之间的权重是完全不同的。
1. 每个激活图共享相同的权重。即单个激活图用于检测在原始图的不同位置出现的特定种类的特征。
2. 不同的激活图用于检测不同种类的特征。