语义分割中的上采样
Upsampling in Semantic Segmentation
我正在尝试实现一篇关于语义分割的论文,但我对如何对分割网络生成的预测图进行上采样以匹配输入图像大小感到困惑。
例如,我正在使用 Resnet101 的变体作为分割网络(如论文所用)。使用这种网络结构,大小为 321x321 的输入(论文中再次使用)会产生大小为 41x41xC 的最终预测图(C 是 类 的数量)。因为我必须进行像素级预测,所以我需要将其上采样到 321x321xC。 Pytorch 提供了上采样到输出大小的功能,该输出大小是预测图大小的倍数。所以,我不能在这里直接使用那个方法。
因为这一步涉及到每一个语义分割网络,我相信应该有一个标准的方法来实现它。
如有任何指点,我将不胜感激。提前致谢。
也许您可以尝试的最简单的方法是:
- 上采样 8 次。然后你 41x41 输入变成 328x328
- 执行中心裁剪以获得您想要的形状 321x321(例如,类似这样的输入 [3:,3:,:-4,:-4])
我正在尝试实现一篇关于语义分割的论文,但我对如何对分割网络生成的预测图进行上采样以匹配输入图像大小感到困惑。
例如,我正在使用 Resnet101 的变体作为分割网络(如论文所用)。使用这种网络结构,大小为 321x321 的输入(论文中再次使用)会产生大小为 41x41xC 的最终预测图(C 是 类 的数量)。因为我必须进行像素级预测,所以我需要将其上采样到 321x321xC。 Pytorch 提供了上采样到输出大小的功能,该输出大小是预测图大小的倍数。所以,我不能在这里直接使用那个方法。
因为这一步涉及到每一个语义分割网络,我相信应该有一个标准的方法来实现它。
如有任何指点,我将不胜感激。提前致谢。
也许您可以尝试的最简单的方法是:
- 上采样 8 次。然后你 41x41 输入变成 328x328
- 执行中心裁剪以获得您想要的形状 321x321(例如,类似这样的输入 [3:,3:,:-4,:-4])