R 的 coreNLP::initCoreNLP() 抛出 java.lang.OutOfMemoryError
R's coreNLP::initCoreNLP() throws java.lang.OutOfMemoryError
coreNLP
是一个 R 包,用于与 Standford 的 CoreNLP Java 库连接。必须执行的第一行(在使用 library()
命令加载适当的包之后)是 initCoreNLP()
。不幸的是,这会导致以下错误:
Loading classifier from edu/stanford/nlp/models/ner/english.conll.4class.distsim.crf.ser.gz ... Error in rJava::.jnew("edu.stanford.nlp.pipeline.StanfordCoreNLP", basename(path)) :
java.lang.OutOfMemoryError: GC overhead limit exceeded
请注意,这与此处列出的问题相同:()。然而,在那种情况下,OP 发现重新启动他的机器可以使问题消失。我不是这种情况;即使重启后我仍然遇到它。
还有其他人 运行 参与其中并可以提供解决方案或建议吗?
提前致谢,
危险品
配置详情:
R 版本 3.2.3 (2015-12-10)
rJava 版本 0.9-7
coreNLP 版本 0.4-1
机器:Win 7,8GB 内存
这是我找到的一些文档:
https://cran.r-project.org/web/packages/coreNLP/coreNLP.pdf
(特别是第 7 页)
您可以指定使用多少内存(来自文档):
initCoreNLP(libLoc, parameterFile, mem = "4g", annotators)
添加更多内存,我想问题就会消失。
coreNLP
是一个 R 包,用于与 Standford 的 CoreNLP Java 库连接。必须执行的第一行(在使用 library()
命令加载适当的包之后)是 initCoreNLP()
。不幸的是,这会导致以下错误:
Loading classifier from edu/stanford/nlp/models/ner/english.conll.4class.distsim.crf.ser.gz ... Error in rJava::.jnew("edu.stanford.nlp.pipeline.StanfordCoreNLP", basename(path)) : java.lang.OutOfMemoryError: GC overhead limit exceeded
请注意,这与此处列出的问题相同:(
还有其他人 运行 参与其中并可以提供解决方案或建议吗?
提前致谢, 危险品
配置详情:
R 版本 3.2.3 (2015-12-10)
rJava 版本 0.9-7
coreNLP 版本 0.4-1
机器:Win 7,8GB 内存
这是我找到的一些文档:
https://cran.r-project.org/web/packages/coreNLP/coreNLP.pdf
(特别是第 7 页)
您可以指定使用多少内存(来自文档):
initCoreNLP(libLoc, parameterFile, mem = "4g", annotators)
添加更多内存,我想问题就会消失。