Pytorch中CUDA内存不足的解释
Explain CUDA out of memory in Pytorch
谁能帮我解释一下Pytorch中这个常见问题的含义?
型号:EfficientDet-D4
显卡:RTX 2080Ti
批量大小:2
CUDA out of memory. Tried to allocate 14.00 MiB (GPU 0; 11.00 GiB total capacity; 8.32 GiB already allocated; 2.59 MiB free; 8.37 GiB reserved in total by PyTorch)
无论如何,我认为模型和GPU在这里并不重要,我知道解决方案应该减少批量大小,尝试在验证时关闭梯度等。但我只想知道什么意思8.32 GiB
虽然我有 11 GiB
但不能再分配 14.00 MiB
?
补充:我尝试在批量大小 = 1 的训练中观看 nvidia-smi
,我的 GPU 占用了 9.5 GiB
。
我从 Pytorch 社区的@ptrblck 那里得到了答案。在那里,我比这个问题更详细地描述了我的问题。
请检查here中的答案。
谁能帮我解释一下Pytorch中这个常见问题的含义?
型号:EfficientDet-D4
显卡:RTX 2080Ti
批量大小:2
CUDA out of memory. Tried to allocate 14.00 MiB (GPU 0; 11.00 GiB total capacity; 8.32 GiB already allocated; 2.59 MiB free; 8.37 GiB reserved in total by PyTorch)
无论如何,我认为模型和GPU在这里并不重要,我知道解决方案应该减少批量大小,尝试在验证时关闭梯度等。但我只想知道什么意思8.32 GiB
虽然我有 11 GiB
但不能再分配 14.00 MiB
?
补充:我尝试在批量大小 = 1 的训练中观看 nvidia-smi
,我的 GPU 占用了 9.5 GiB
。
我从 Pytorch 社区的@ptrblck 那里得到了答案。在那里,我比这个问题更详细地描述了我的问题。
请检查here中的答案。