使用 CPU 加载 pickle 保存的 GPU 张量?
Load pickle saved GPU tensor with CPU?
我在 GPU 上使用 pickle 为我的后续过程保存了 Bert 的最后一个隐藏层。
# output is the last hidden layer of bert, transformed on GPU
with open(filename, 'wb') as f:
pk.dump(output, f)
是否可以在没有 GPU 的情况下将其加载到我个人的笔记本电脑上?我尝试了以下代码,但都失败了。
# 1st try
with open(filename, 'rb') as f:
torch.load(f, map_location='cpu')
# 2nd
torch.load(filename, map_location=torch.device('cpu'))
全部得到以下错误
RuntimeError: Attempting to deserialize object on a CUDA device but torch.cuda.is_available() is False. If you are running on a CPU-only machine, please use torch.load with map_location=torch.device('cpu') to map your storages to the CPU.
是否可以在我的笔记本电脑上加载文件?
如果您使用 pytorch,您可以通过保存模型的 state_dict
而不是模型本身来避免一些麻烦。 state_dict
是一个有序字典,用于存储神经网络的权重。
保存例程:
import torch
model = MyFabulousPytorchModel()
torch.save(model.state_dict(), "best_model.pt")
加载它需要您先初始化模型:
import torch
device = 'cuda' if torch.cuda.is_available() else 'gpu'
model = MyFabulousPytorchModel()
model.load_state_dict(torch.load(PATH_TO_MODEL))
model.device(device)
用 state_dict
代替直接保存对象有很多优点。其中之一与您的问题有关:将您的模型移植到不同的环境并不像您希望的那样轻松。另一个优点是保存检查点要容易得多,让您可以恢复训练,就好像训练从未停止过一样。你所要做的就是保存优化器的状态和损失:
保存检查点:
# somewhere in your training loop:
opt.zero_grad()
pred = model(x)
loss = loss_func(pred, target)
torch.save({"model": model.state_dict(), "opt": opt.state_dict(), "loss":loss}, "checkpoing.pt")
我强烈建议查看文档以获取有关如何使用 pytorch 保存和加载模型的更多信息。如果你了解它的内部运作,这是一个相当顺利的过程。 https://pytorch.org/tutorials/beginner/saving_loading_models.html#saving-loading-model-for-inference
希望对您有所帮助 =)
编辑:
更直接,为了解决你的问题,我推荐以下内容
1- 在您用来训练模型的计算机上:
import torch
model = torch.load("PATH_TO_MODEL")
torch.save(model.state_dict(), "PATH.pt")
2- 在另一台计算机上:
import torch
from FILE_WHERE_THE_MODEL_CLASS_IS_DEFINED import Model
model = Model() # initialize one instance of the model)
model.load_state_dict(torch.load("PATH.pt")
我在 GPU 上使用 pickle 为我的后续过程保存了 Bert 的最后一个隐藏层。
# output is the last hidden layer of bert, transformed on GPU
with open(filename, 'wb') as f:
pk.dump(output, f)
是否可以在没有 GPU 的情况下将其加载到我个人的笔记本电脑上?我尝试了以下代码,但都失败了。
# 1st try
with open(filename, 'rb') as f:
torch.load(f, map_location='cpu')
# 2nd
torch.load(filename, map_location=torch.device('cpu'))
全部得到以下错误
RuntimeError: Attempting to deserialize object on a CUDA device but torch.cuda.is_available() is False. If you are running on a CPU-only machine, please use torch.load with map_location=torch.device('cpu') to map your storages to the CPU.
是否可以在我的笔记本电脑上加载文件?
如果您使用 pytorch,您可以通过保存模型的 state_dict
而不是模型本身来避免一些麻烦。 state_dict
是一个有序字典,用于存储神经网络的权重。
保存例程:
import torch
model = MyFabulousPytorchModel()
torch.save(model.state_dict(), "best_model.pt")
加载它需要您先初始化模型:
import torch
device = 'cuda' if torch.cuda.is_available() else 'gpu'
model = MyFabulousPytorchModel()
model.load_state_dict(torch.load(PATH_TO_MODEL))
model.device(device)
用 state_dict
代替直接保存对象有很多优点。其中之一与您的问题有关:将您的模型移植到不同的环境并不像您希望的那样轻松。另一个优点是保存检查点要容易得多,让您可以恢复训练,就好像训练从未停止过一样。你所要做的就是保存优化器的状态和损失:
保存检查点:
# somewhere in your training loop:
opt.zero_grad()
pred = model(x)
loss = loss_func(pred, target)
torch.save({"model": model.state_dict(), "opt": opt.state_dict(), "loss":loss}, "checkpoing.pt")
我强烈建议查看文档以获取有关如何使用 pytorch 保存和加载模型的更多信息。如果你了解它的内部运作,这是一个相当顺利的过程。 https://pytorch.org/tutorials/beginner/saving_loading_models.html#saving-loading-model-for-inference
希望对您有所帮助 =)
编辑:
更直接,为了解决你的问题,我推荐以下内容
1- 在您用来训练模型的计算机上:
import torch
model = torch.load("PATH_TO_MODEL")
torch.save(model.state_dict(), "PATH.pt")
2- 在另一台计算机上:
import torch
from FILE_WHERE_THE_MODEL_CLASS_IS_DEFINED import Model
model = Model() # initialize one instance of the model)
model.load_state_dict(torch.load("PATH.pt")