训练 OpenNLP 模型时如何使用 GPU?

How to use GPU when training OpenNLP models?

我想在远程访问的 GPU 服务器上使用 CLI 训练 OpenNLP 模型。我熟悉在训练 pytorch 模型时使用 GPU,但我意识到我不确定这将如何与 openNLP 一起工作,因为它是用 java 编写的。如果我在一个 openNLP 上训练它,它会使用 GPU 吗?

具体来说,我想到了我们在训练 pytorch 模型时使用的这个熟悉的代码片段:

if torch.cuda.is_available():  
  dev = "cuda:0" 

任何人都可以阐明它在 java OpenNLP 库中的工作原理吗?某处是否有与这行代码等效的代码?

我也在我的远程 GPU 服务器上使用此 docker 图像 运行 CLI:https://hub.docker.com/r/casetext/opennlp/dockerfile

我相信我还需要修改 docker 文件才能使用 GPU,但我想知道我是否需要先对 openNLP 代码执行任何其他操作才能完成此操作,而不管我的 docker容器使用。

Apache OpenNLP 不支持在 GPU 上训练。训练只能在 CPU 上进行。