如果我不使用 to(device) 将张量和模型传输到 gpu,gpu 是否仍会用于训练?
Will gpu be still used for training if I don't transfer tensor and model to gpu using to(device)?
我正在使用 google colab,如果我不使用 model.to('cuda') 和 [=15=,我需要知道它是否使用任何 GPU 进行训练]('cuda')?
如果您不使用 model.to(torch.device('cuda'))
和 data.to(torch.device('cuda'))
,您的模型和所有张量将保留在默认设备上,即 CPU,所以他们不理解GPU的存在。 PyTorch 使用 CPU 进行工作。
您可以查看此 Link 以了解有关 torch.device 的更多信息。
我正在使用 google colab,如果我不使用 model.to('cuda') 和 [=15=,我需要知道它是否使用任何 GPU 进行训练]('cuda')?
如果您不使用 model.to(torch.device('cuda'))
和 data.to(torch.device('cuda'))
,您的模型和所有张量将保留在默认设备上,即 CPU,所以他们不理解GPU的存在。 PyTorch 使用 CPU 进行工作。
您可以查看此 Link 以了解有关 torch.device 的更多信息。