Pytorch 中奇怪的 Cuda 内存不足行为

Strange Cuda out of Memory behavior in Pytorch

编辑:已解决 - 问题取决于工人数量,降低他们,问题已解决

我正在使用 24GB Titan RTX,我正在使用它与 Pytorch 进行图像分割 Unet,

它总是在不同的批处理大小下将 Cuda 抛出内存,而且我有比它声明的需要更多的可用内存,并且通过降低批处理大小,它增加了它尝试分配的内存,这不会使任何意义。

这是我尝试过的:

图像大小 = 448,批量大小 = 8

图像大小 = 448,批量大小 = 6

是说它试图分配 3.12GB 而我有 19GB 可用但它抛出错误??

图像大小 = 224,批量大小 = 8

图像大小 = 224,批量大小 = 6

减少了批量大小但试图分配更多 ???

图像大小 = 224,批量大小 = 4

图像大小 = 224,批量大小 = 2

图像大小 = 224,批量大小 = 1

即使图像尺寸和批次尺寸都非常小...

已解决-问题取决于工人的数量,降低他们,问题已解决