在 Google Colab 上设置更高的共享内存以避免 PyTorch 出现运行时错误

Set higher shared memory to avoid RuntimeError with PyTorch on Google Colab

在 Colab 中使用 pytorch 1.0 预览版和 fastai v1.0。

我经常得到 RuntimeError: DataLoader worker (pid 13) is killed by signal: Bus error. 更多内存密集型任务(没什么大不了的)。

看起来像是共享内存问题: https://github.com/pytorch/pytorch/issues/5040#issue-294274594

修复看起来像是在 docker 容器中更改共享内存:

https://github.com/pytorch/pytorch/issues/2244#issuecomment-318864552

Looks like the shared memory of the docker container wasn't set high enough. Setting a higher amount by adding --shm-size 8G to the docker run command seems to be the trick as mentioned here.

如何在 Colab 中增加 docker 容器 运行 的共享内存或以其他方式避免此错误?

无法在 colab 中修改此设置,但已提出默认设置以解决此问题,因此您不需要进一步更改设置:https://github.com/googlecolab/colabtools/issues/329