R 的 coreNLP::initCoreNLP() 抛出 java.lang.OutOfMemoryError

R's coreNLP::initCoreNLP() throws java.lang.OutOfMemoryError

coreNLP 是一个 R 包,用于与 Standford 的 CoreNLP Java 库连接。必须执行的第一行(在使用 library() 命令加载适当的包之后)是 initCoreNLP()。不幸的是,这会导致以下错误:

Loading classifier from edu/stanford/nlp/models/ner/english.conll.4class.distsim.crf.ser.gz ... Error in rJava::.jnew("edu.stanford.nlp.pipeline.StanfordCoreNLP", basename(path)) : java.lang.OutOfMemoryError: GC overhead limit exceeded

请注意,这与此处列出的问题相同:()。然而,在那种情况下,OP 发现重新启动他的机器可以使问题消失。我不是这种情况;即使重启后我仍然遇到它。

还有其他人 运行 参与其中并可以提供解决方案或建议吗?

提前致谢, 危险品

配置详情:

R 版本 3.2.3 (2015-12-10)

rJava 版本 0.9-7

coreNLP 版本 0.4-1

机器:Win 7,8GB 内存

这是我找到的一些文档:

https://cran.r-project.org/web/packages/coreNLP/coreNLP.pdf

(特别是第 7 页)

您可以指定使用多少内存(来自文档):

initCoreNLP(libLoc, parameterFile, mem = "4g", annotators)

添加更多内存,我想问题就会消失。