使用在 RTX 2080 或 RTX 3060 上训练的 Pytorch 模型

Using Pytorch model trained on RTX2080 on RTX3060

我尝试在支持 CUDA 的较新 Nvidia RTX3060 上 运行 我的 PyTorch 模型(在 Nvidia RTX2080 上训练)。可以加载模型并执行它。如果我 运行 它在 CPU 上用 --no_cuda 标记它 运行s smootly 并返回正确的预测,但是如果我想 运行 它CUDA,它只有 returns 没有意义的错误预测。 卡片的不同 GPU 架构是否会影响预测?

好的,看来问题是两种架构的浮点数不同。需要设置标志torch.backends.cuda.matmul.allow_tf32 = false,以提供不同架构模型的稳定执行。