深度 Q/Reinforcement 学习中的预处理会降低准确性吗?

Does Preprocessing In Deep Q/Reinforcement Learning Lessen Accuracy?

我一直在阅读深度强化学习,例如此处:

https://www.nervanasys.com/demystifying-deep-reinforcement-learning/

我还需要一段时间才能理解所有的数学知识,但这并不妨碍我使用这些库。不管怎样,我知道在卷积神经网络中,如果你想对图像进行学习,你必须对图像进行预处理,否则计算神经网络所需的计算能力是天文数字。这会以任何方式降低网络的质量吗?如果有怎么办?

例如,假设您有足够的计算能力来为网络提供视频流中每个高质量图像的每个像素,以便学习如何达到目标。这会使网络更善于实现其目标吗?它会拓宽网络可以完成的目标类型,可能使其能够更好地概括吗?

我也在计算机视觉的背景下考虑这一点,您可能会让机器人推理其环境以学习执行任务。似乎对它接收到的图像进行预处理将类似于使其视力极差。

通过预处理图像,您的意思是将它们缩放到标准尺寸,如 256x256 像素?

通过将图像二次采样缩小到 256x256 像素的大小,您会丢失信息,因此保持图像的高分辨率应该会给您带来更好的效果。

但它也会消耗你更多的计算机能力,所以不值得这样做。在 Scaling up Image Recognition 中,作者声称通过使用分辨率为 512x512 而不是 256x256 的图像,他们实现了更低的错误率。不过只低了0.54%,也不算多。

在另一个任务中我想使用更高分辨率的图像效果应该是相似的,它会让模型看到更多细节因此它可能会更好,但它可能不值得因为需要增加计算能力.

请注意,我提供的 link 的作者在 ImageNet 上被抓到作弊,所以即使错误率的降低可能是真实的,在 ImageNet 比赛中取得的分数也应该被忽略。