检查失败:error == cudaSuccess (2 vs. 0) out of memory
Check failed: error == cudaSuccess (2 vs. 0) out of memory
我正在尝试 运行 在 gpu 上使用 pycaffe 的神经网络。
这在我第一次调用脚本时有效。
当我第二次 运行 相同的脚本时,CUDA 在标题中抛出错误。
批量大小为1,此时图像大小为243x322,gpu有8gb RAM。
我想我缺少重置内存的命令?
非常感谢!
编辑:
也许我应该澄清一些事情:我 运行 在 windows 喝咖啡。
当我使用 python script.py 调用脚本时,进程终止并且 gpu 内存被释放,所以这有效。
使用ipython调试时,GPU显存确实没有释放(经过一次后,8个bg中有6个正在使用,感谢nvidia-smi建议! )
所以,我正在寻找的是一个我可以从 pyhton 中调用的命令,如下所示:
运行网络
处理图像输出
空闲 gpu 内存
当您 运行 GPU 内存不足时,就会发生这种情况。你确定你正确地停止了第一个脚本吗?检查系统上的 运行ning 进程(ubuntu 中的 ps -A
)并查看 python 脚本是否仍在 运行ning。有则杀之。您还应该检查 GPU 中使用的内存 (nvidia-smi
)。
您的 GPU 内存未被释放。当先前的进程停止但未终止时会发生这种情况。看我的回答here.
我正在尝试 运行 在 gpu 上使用 pycaffe 的神经网络。
这在我第一次调用脚本时有效。 当我第二次 运行 相同的脚本时,CUDA 在标题中抛出错误。
批量大小为1,此时图像大小为243x322,gpu有8gb RAM。
我想我缺少重置内存的命令?
非常感谢!
编辑:
也许我应该澄清一些事情:我 运行 在 windows 喝咖啡。
当我使用 python script.py 调用脚本时,进程终止并且 gpu 内存被释放,所以这有效。
使用ipython调试时,GPU显存确实没有释放(经过一次后,8个bg中有6个正在使用,感谢nvidia-smi建议! )
所以,我正在寻找的是一个我可以从 pyhton 中调用的命令,如下所示:
运行网络
处理图像输出
空闲 gpu 内存
当您 运行 GPU 内存不足时,就会发生这种情况。你确定你正确地停止了第一个脚本吗?检查系统上的 运行ning 进程(ubuntu 中的 ps -A
)并查看 python 脚本是否仍在 运行ning。有则杀之。您还应该检查 GPU 中使用的内存 (nvidia-smi
)。
您的 GPU 内存未被释放。当先前的进程停止但未终止时会发生这种情况。看我的回答here.