较小的输入大小是否可以让迁移学习更快地收敛?是否可以寻求更高的准确性?

Is the smaller input size quicker on transfer learning to converge and is that ok on seeking better accuracy?

您好,我正在尝试将迁移学习与 Xception 结合使用,但我有一个问题。 当我这样做时:

xception=Xception(input_shape = (IMAGE_WIDTH, IMAGE_HEIGHT, IMAGE_CHANNELS, include_top=False, weights='imagenet')   

IMAGE_WIDTH=192 IMAGE_HEIGHT=256 IMAGE_CHANNELS=3

每个epoch的时间约为830s

当我这样做时:

xception=Xception(input_shape = (150, 150, IMAGE_CHANNELS, include_top=False, weights='imagenet')

每个epoch的时间约为340s

而且我的原始图像大小是 IMAGE_WIDTH 和 IMAGE_HEIGHT

我想选择后者,因为它更快,但我想知道你的意见。 将 input_shape 设置为原始大小会导致更好的结果吗?

是的,它应该会带来更好的结果。但是,这高度依赖于您的数据集和实验。不可能说它在性能方面会有什么不同,肯定会更慢。

有一个权衡。

  • 更好的结果 --> 较慢的模型
  • 不太好的结果 --> 更快的模型