迁移学习需要在 0-255 之间重新缩放图像吗
Is image rescaling between 0-255 needed for transfer learning
我正在使用迁移学习处理分类任务。我正在使用 ResNet50 和来自 ImageNet 的权重。
My_model = (ResNet50( include_top=False, weights='imagenet', input_tensor=None,
input_shape=(img_height, img_width, 3),pooling=None))
我没有在 0-255 之间重新缩放我的输入图像,但我的结果非常好 (acc: 93.25%)。所以我的问题是我需要在 0-255 之间重新缩放图像吗?如果不在 0-255 之间重新缩放,您认为我的结果是错误的吗?
谢谢。
没有,基本上你的结果没有错。为了提供线索,我们将像素值标准化到(0 和 1)之间的范围,以避免在前向传播的微积分过程中产生大值 z = w*x + b 然后反向传播。
我们为什么这样做?
我开发,优化算法肯定依赖于后向传播的结果,所以当我们开始用 weights/bias 的大值更新我们的优化算法时,我们需要很多 epochs 才能达到全局最小值。
我正在使用迁移学习处理分类任务。我正在使用 ResNet50 和来自 ImageNet 的权重。
My_model = (ResNet50( include_top=False, weights='imagenet', input_tensor=None,
input_shape=(img_height, img_width, 3),pooling=None))
我没有在 0-255 之间重新缩放我的输入图像,但我的结果非常好 (acc: 93.25%)。所以我的问题是我需要在 0-255 之间重新缩放图像吗?如果不在 0-255 之间重新缩放,您认为我的结果是错误的吗?
谢谢。
没有,基本上你的结果没有错。为了提供线索,我们将像素值标准化到(0 和 1)之间的范围,以避免在前向传播的微积分过程中产生大值 z = w*x + b 然后反向传播。
我们为什么这样做?
我开发,优化算法肯定依赖于后向传播的结果,所以当我们开始用 weights/bias 的大值更新我们的优化算法时,我们需要很多 epochs 才能达到全局最小值。