在 Kaggle 内核中,当检查 torch.cuda.is_available() 时选择了 GPU 选项,它说不可用
In a Kaggle kernel while having selected the GPU option when checking torch.cuda.is_available(), it says is not available
我为完成的 Kaggle 竞赛创建了一个内核,其中我使用了 pytorch。当检查 cuda 是否可用时,它 returns False.
我从设置中检查了 GPU 选项,它说它在带有资源信息的底部栏中打开。我试图在没有任何更改的情况下重新启动会话。
可能是什么问题呢? (cpu 也许只安装了 pytorch?)
在右侧控制面板的设置选项中启动内核和turn-on
GPU。然后 运行 以下命令。
[1]:import torch
[2]:torch.cuda.device_count()
Out[2]:1
[3]:torch.cuda.is_available()
Out[3]:True
问题出在从设置中选择的 docker 配置。选择 "Latest Available" 解决了问题。
我为完成的 Kaggle 竞赛创建了一个内核,其中我使用了 pytorch。当检查 cuda 是否可用时,它 returns False.
我从设置中检查了 GPU 选项,它说它在带有资源信息的底部栏中打开。我试图在没有任何更改的情况下重新启动会话。 可能是什么问题呢? (cpu 也许只安装了 pytorch?)
在右侧控制面板的设置选项中启动内核和turn-on
GPU。然后 运行 以下命令。
[1]:import torch
[2]:torch.cuda.device_count()
Out[2]:1
[3]:torch.cuda.is_available()
Out[3]:True
问题出在从设置中选择的 docker 配置。选择 "Latest Available" 解决了问题。