带填充的平均池的期望行为是什么?
What is the desired behavior of average pooling with padding?
最近我使用 pytorch 训练了一个神经网络,其中有一个带有填充的平均池化层。我对它的行为以及带填充的平均池化的定义感到困惑。
例如,如果我们有一个输入张量:
[[1, 2, 3],
[4, 5, 6],
[7, 8, 9]]
当 padding 为 1 且内核大小为 3 时,第一个内核的输入应为:
0, 0, 0
0, 1, 2
0, 4, 5
pytorch的输出是12/4 = 3(忽略填充的0),但我认为应该是12/9 = 1.333
谁能给我解释一下吗?
非常感谢。
基本上由您决定填充池化层的行为方式。
这就是为什么 pytorch 的 avg pool(例如 nn.AvgPool2d
)有一个可选参数 count_include_pad=True
:
默认情况下 (True
) Avg pool 将首先填充输入,然后对所有元素一视同仁。在这种情况下,您的示例的输出确实是 1.33.
另一方面,如果您设置 count_include_pad=False
池化层将忽略填充元素,您的示例中的结果将为 3.
最近我使用 pytorch 训练了一个神经网络,其中有一个带有填充的平均池化层。我对它的行为以及带填充的平均池化的定义感到困惑。
例如,如果我们有一个输入张量:
[[1, 2, 3],
[4, 5, 6],
[7, 8, 9]]
当 padding 为 1 且内核大小为 3 时,第一个内核的输入应为:
0, 0, 0
0, 1, 2
0, 4, 5
pytorch的输出是12/4 = 3(忽略填充的0),但我认为应该是12/9 = 1.333
谁能给我解释一下吗?
非常感谢。
基本上由您决定填充池化层的行为方式。
这就是为什么 pytorch 的 avg pool(例如 nn.AvgPool2d
)有一个可选参数 count_include_pad=True
:
默认情况下 (True
) Avg pool 将首先填充输入,然后对所有元素一视同仁。在这种情况下,您的示例的输出确实是 1.33.
另一方面,如果您设置 count_include_pad=False
池化层将忽略填充元素,您的示例中的结果将为 3.