训练OpenNLP模型时如何使用GPU?

我想在远程访问的GPU服务器上使用CLI训练OpenNLP模型。我在训练pytorch模型时对使用GPU很熟悉,但是我意识到,由于它是用Java编写的,因此我不确定它如何与openNLP一起使用。如果我在一个GPU上训练它,openNLP会使用GPU吗?

具体地说,我想到的是我们在训练pytorch模型时使用的熟悉的代码段:

if torch.cuda.is_available():  
  dev = "cuda:0" 

有人能阐明它在Java OpenNLP库中是如何工作的吗?某处是否有等效于此行代码的代码?

我还使用此docker映像在我的远程GPU服务器上运行CLI:https://hub.docker.com/r/casetext/opennlp/dockerfile

我相信我还需要修改dockerfile才能使用GPU,但是我想知道是否需要首先对openNLP代码执行其他任何操作来完成此任务,而与我的docker容器使用情况无关。

iCMS 回答:训练OpenNLP模型时如何使用GPU?

Apache OpenNLP不支持在GPU上进行训练。培训只能在CPU上进行。

本文链接:https://www.f2er.com/2127842.html

大家都在问