卷积中的扩张内核与内核 5x5
Dilated kernel vs kernel 5x5 in convolution
如果dilated convolution的目的是扩展感受野(从远距离区域提取图像特征)并且带有mirror padding的5x5内核也能够从远距离区域获得特征。人们为什么
更经常使用内核 5x5 上的扩张卷积?
谢谢。
该架构基于以下事实:空洞卷积支持感受野的指数扩展,而不会损失分辨率或覆盖范围。
我认为大多数人经常使用空洞卷积是因为它允许一个人在相同的计算和内存成本下具有更大的感受野,同时还保持分辨率。
扩张卷积也普遍提高了性能。
看到这篇论文Multi-Scale Context Aggregation by Dilated Convolutions我们有更好的语义分割结果
如果dilated convolution的目的是扩展感受野(从远距离区域提取图像特征)并且带有mirror padding的5x5内核也能够从远距离区域获得特征。人们为什么 更经常使用内核 5x5 上的扩张卷积?
谢谢。
该架构基于以下事实:空洞卷积支持感受野的指数扩展,而不会损失分辨率或覆盖范围。
我认为大多数人经常使用空洞卷积是因为它允许一个人在相同的计算和内存成本下具有更大的感受野,同时还保持分辨率。
扩张卷积也普遍提高了性能。 看到这篇论文Multi-Scale Context Aggregation by Dilated Convolutions我们有更好的语义分割结果