在 Kaggle 内核中,当检查 torch.cuda.is_available() 时选择了 GPU 选项,它说不可用

In a Kaggle kernel while having selected the GPU option when checking torch.cuda.is_available(), it says is not available

我为完成的 Kaggle 竞赛创建了一个内核,其中我使用了 pytorch。当检查 cuda 是否可用时,它 returns False.

我从设置中检查了 GPU 选项,它说它在带有资源信息的底部栏中打开。我试图在没有任何更改的情况下重新启动会话。 可能是什么问题呢? (cpu 也许只安装了 pytorch?)

在右侧控制面板的设置选项中启动内核和turn-on GPU。然后 运行 以下命令。

    [1]:import torch
    [2]:torch.cuda.device_count()
    Out[2]:1

    [3]:torch.cuda.is_available()
    Out[3]:True

问题出在从设置中选择的 docker 配置。选择 "Latest Available" 解决了问题。