Pytorch中CUDA内存不足的解释

Explain CUDA out of memory in Pytorch

谁能帮我解释一下Pytorch中这个常见问题的含义?

型号:EfficientDet-D4

显卡:RTX 2080Ti

批量大小:2

CUDA out of memory. Tried to allocate 14.00 MiB (GPU 0; 11.00 GiB total capacity; 8.32 GiB already allocated; 2.59 MiB free; 8.37 GiB reserved in total by PyTorch)

无论如何,我认为模型和GPU在这里并不重要,我知道解决方案应该减少批量大小,尝试在验证时关闭梯度等。但我只想知道什么意思8.32 GiB 虽然我有 11 GiB 但不能再分配 14.00 MiB

补充:我尝试在批量大小 = 1 的训练中观看 nvidia-smi,我的 GPU 占用了 9.5 GiB

我从 Pytorch 社区的@ptrblck 那里得到了答案。在那里,我比这个问题更详细地描述了我的问题。

请检查here中的答案。