卷积神经网络与下采样?
Convolutional neural networks vs downsampling?
读完这个主题后我没有完全理解:神经网络中的 'convolution' 是否可以与简单的下采样或 'sharpening' 函数相媲美?
你能把这个词分解成简单易懂的image/analogy吗?
编辑:第一个答案后改写:池化可以理解为权重矩阵的下采样吗?
卷积神经网络 是一系列模型,经经验证明在图像识别方面效果很好。从这个角度来看 - CNN 与下采样完全不同。
但是在 CNN 设计中使用的框架中,有一些东西可以与下采样技术相媲美。要完全理解这一点,您必须了解 CNN 通常是如何工作的。它是由分层数量的层构建的,在每一层都有一组可训练的内核,其输出的维度与输入图像的空间大小非常相似。
这可能是一个严重的问题 - 此类层的输出可能非常庞大 (~ nr_of_kernels * size_of_kernel_output
),这可能会使您的计算变得棘手。这就是为什么使用某些技术来减小输出大小的原因:
- 步幅、填充和内核大小操作:将这些值设置为某个值,您可以减小输出的大小(另一方面 - 您可能会丢失一些重要信息)。
- 池化操作:池化是一种操作,其中不是将所有内核的所有输出作为层的输出传递——您可能只传递有关它的特定聚合统计信息。它被认为非常有用,并广泛用于 CNN 设计。
有关详细说明,您可以访问此 tutorial。
编辑: 是的,池化是一种下采样
读完这个主题后我没有完全理解:神经网络中的 'convolution' 是否可以与简单的下采样或 'sharpening' 函数相媲美?
你能把这个词分解成简单易懂的image/analogy吗?
编辑:第一个答案后改写:池化可以理解为权重矩阵的下采样吗?
卷积神经网络 是一系列模型,经经验证明在图像识别方面效果很好。从这个角度来看 - CNN 与下采样完全不同。
但是在 CNN 设计中使用的框架中,有一些东西可以与下采样技术相媲美。要完全理解这一点,您必须了解 CNN 通常是如何工作的。它是由分层数量的层构建的,在每一层都有一组可训练的内核,其输出的维度与输入图像的空间大小非常相似。
这可能是一个严重的问题 - 此类层的输出可能非常庞大 (~ nr_of_kernels * size_of_kernel_output
),这可能会使您的计算变得棘手。这就是为什么使用某些技术来减小输出大小的原因:
- 步幅、填充和内核大小操作:将这些值设置为某个值,您可以减小输出的大小(另一方面 - 您可能会丢失一些重要信息)。
- 池化操作:池化是一种操作,其中不是将所有内核的所有输出作为层的输出传递——您可能只传递有关它的特定聚合统计信息。它被认为非常有用,并广泛用于 CNN 设计。
有关详细说明,您可以访问此 tutorial。
编辑: 是的,池化是一种下采样