Pytorch 使用了太多资源

Way too much resources are used with Pytorch

我正在使用 pytorch 来训练 DQN 模型。使用 ubuntu,如果我使用 htop,我会得到

如您所见,所有资源都已使用,我有点担心。 这是我的 code.

有没有办法减少资源消耗?我必须使用 pytorch 添加我的要求吗?

请注意,我的机器上没有 GPU,只有 CPU

是的,有。您可以使用 torch.set_num_threads(...) to specify the number of threads. Depending on the PyTorch version you use, maybe this function will not work correctly. See why in this issue。在那里,您会看到,如果需要,您可以使用环境变量分别通过 OMP_NUM_THREADS=?MKL_NUM_THREADS=? 来限制 OpenMP 或 MKL 线程的使用,其中 ? 是线程数。

请记住,这些东西预计会在具有数千个内核的 GPU 上 运行,因此我会限制 CPU 仅在极其必要时使用。