有没有办法从我的终端在 GPU 上进行 运行 编码?

is there a way to run code on GPUs from my terminal?

我一直在使用 Google Colab 等 GPU 加速服务,但我并不满意。我不喜欢在 Jupyter Notebooks 中编写所有代码,而且我还有一些其他问题。我想知道是否有一种方法可以设置一些东西,我可以从我的终端 运行 一个命令,比如 upload train.py 将文件 train.py 上传到服务器,然后稍后 运行 run train.py 或类似的东西 运行 它在该服务器上,并使输出出现在我的本地终端中。有谁知道实现类似目标的方法吗?

.. if there is a way to get something set up where I could just run a command from my terminal, something like upload train.py to upload a file train.py to a server, and then later run run train.py or something like that to run it on that server

如果您谈论的是运行使用 GPU 在 google colab 服务器上编写代码,

我记得他们更新了政策,现在您只能通过 Colab 笔记本在 google Colab 上使用 GPU。如果您有带 GPU 的 Linux 服务器,您可以通过 SSH 连接到它并安装 Cuda 和库,例如 tensorflow_gpupytorch 和 运行 您的代码。

如果您正在寻找 GPU 服务器的廉价替代品,请检查 this and this link。

Heroku 是一种非 GPU 替代方案,您可以在其中制作代码原型,然后使用任何云提供商,例如 AWS 或 Google Cloud。 (我记得 AWS 在注册时提供了相当数量的免费 G​​PU 时间)。

然后还有另一个 alternative 叫做 FloydHub,我听说有人叫它 heroku for deep learning。我没有亲自使用过它,但这可能也是您正在寻找的。


就个人而言,尽管效率不高。我在本地制作我的代码原型,然后将它们上传到我的 google 驱动器并在 google Colab GPU 上进行最后的训练。这是一个不必要的步骤,但这是我在不租用服务器的情况下能找到的最好的。