使用一个 GPU 和共享内存训练火炬模型
Train a torch model using one GPU and the shared memory
我是训练 pytorch 模型的新手
在 GPU 上
我试过在 windows 上训练它,但总是使用专用内存 (10GB) 而没有使用共享内存
我曾尝试使用多处理来提高其性能,但我一直收到错误消息:
类型错误:无法腌制 'module' 对象
解决方案通常是在加载数据时使用num_wrokers =0
我实际上在加载数据后使用了多处理
并且只需要利用共享内存
我正在重新训练meta-sr说话人验证码,具体训练文件:
https://github.com/seongmin-kye/meta-SR/blob/b4c1ea1728e33f7bbf7015c38f508f24594f3f88/train.py
我已将第 92 行编辑为使用共享 GPU 内存,如下所示
代替:
train(train_generator, model, objective, optimizer, n_episode, log_dir, scheduler)
收件人:
model.share_memory()
p = mp.Process(target=train, args=(train_generator,model,objective, optimizer, n_episode, log_dir, scheduler))
p.num_workers=0
p.start()
p.join()
如果需要添加更多信息,请告诉我
提前致谢
共享内存(RAM的一部分)只有在PC有两个GPU时才能使用
而这种情况只有一个 GPU
我是训练 pytorch 模型的新手 在 GPU 上 我试过在 windows 上训练它,但总是使用专用内存 (10GB) 而没有使用共享内存 我曾尝试使用多处理来提高其性能,但我一直收到错误消息: 类型错误:无法腌制 'module' 对象
解决方案通常是在加载数据时使用num_wrokers =0 我实际上在加载数据后使用了多处理 并且只需要利用共享内存
我正在重新训练meta-sr说话人验证码,具体训练文件: https://github.com/seongmin-kye/meta-SR/blob/b4c1ea1728e33f7bbf7015c38f508f24594f3f88/train.py
我已将第 92 行编辑为使用共享 GPU 内存,如下所示
代替:
train(train_generator, model, objective, optimizer, n_episode, log_dir, scheduler)
收件人:
model.share_memory()
p = mp.Process(target=train, args=(train_generator,model,objective, optimizer, n_episode, log_dir, scheduler))
p.num_workers=0
p.start()
p.join()
如果需要添加更多信息,请告诉我 提前致谢
共享内存(RAM的一部分)只有在PC有两个GPU时才能使用 而这种情况只有一个 GPU