在 AWS sagemaker notebook 实例中使用 pytorch cuda

Using pytorch cuda in AWS sagemaker notebook instance

在 colab 中,每当我们需要 GPU 时,只需单击 change runtime type 并将硬件加速器更改为 GPU

并且 cuda 可用,torch.cuda.is_available()True

如何做到这一点是AWS sagemaker,即打开cuda。 我是 AWS 的新手,正在尝试在 aws sagemaker 中使用 pytorch 训练模型,其中 Pytorch 代码首先在 colab 环境中进行测试。

我的 sagemaker notebook insatnce 是 ml.t2.medium

使用 AWS Sagemaker,您无需担心 GPU,您只需 select 具有 GPU 的实例类型,Sagemaker 就会使用它。具体来说 ml.t2.medium 没有 GPU,但它无论如何都不是训练模型的正确方法。 基本上,您有 2 种使用 Sagemaker 的规范方法(请查看文档和示例),第一种是使用计算资源有限的笔记本来使用预构建图像启动训练作业,在这种情况下,当您调用估算器时您只需指定 instance type 您想要的(您将选择带有 GPU 的,查看成本)。第二种方法是使用您自己的容器,将其推送到 ECR 并从您指定实例类型的控制台启动训练作业。