Pytorch 使用了太多资源
Way too much resources are used with Pytorch
我正在使用 pytorch 来训练 DQN 模型。使用 ubuntu,如果我使用 htop,我会得到
如您所见,所有资源都已使用,我有点担心。
这是我的 code.
有没有办法减少资源消耗?我必须使用 pytorch 添加我的要求吗?
请注意,我的机器上没有 GPU,只有 CPU
是的,有。您可以使用 torch.set_num_threads(...)
to specify the number of threads. Depending on the PyTorch version you use, maybe this function will not work correctly. See why in this issue。在那里,您会看到,如果需要,您可以使用环境变量分别通过 OMP_NUM_THREADS=?
和 MKL_NUM_THREADS=?
来限制 OpenMP 或 MKL 线程的使用,其中 ?
是线程数。
请记住,这些东西预计会在具有数千个内核的 GPU 上 运行,因此我会限制 CPU 仅在极其必要时使用。
我正在使用 pytorch 来训练 DQN 模型。使用 ubuntu,如果我使用 htop,我会得到
如您所见,所有资源都已使用,我有点担心。 这是我的 code.
有没有办法减少资源消耗?我必须使用 pytorch 添加我的要求吗?
请注意,我的机器上没有 GPU,只有 CPU
是的,有。您可以使用 torch.set_num_threads(...)
to specify the number of threads. Depending on the PyTorch version you use, maybe this function will not work correctly. See why in this issue。在那里,您会看到,如果需要,您可以使用环境变量分别通过 OMP_NUM_THREADS=?
和 MKL_NUM_THREADS=?
来限制 OpenMP 或 MKL 线程的使用,其中 ?
是线程数。
请记住,这些东西预计会在具有数千个内核的 GPU 上 运行,因此我会限制 CPU 仅在极其必要时使用。