Hibernate Search: Elasticsearch transport thread-3" java.lang.OutOfMemoryError:
Hibernate Search: Elasticsearch transport thread-3" java.lang.OutOfMemoryError:
我使用带弹性搜索的休眠搜索作为我的索引管理器。目前,我的 jvm 设置为使用 1gb 内存,我不想增加内存。
我有一个 @Transactional
class 为索引 @Entity
.
插入总共 200 万行
虽然插入成功,但 lucene 索引器 运行 内存不足导致事务回滚。下面是我的休眠搜索配置和异常堆栈跟踪:
hibernate.search.default.indexmanager = elasticsearch
elastic= hibernate.search.default.elasticsearch.host =http://localhost:9200
hibernate.search.default.elasticsearch.index_schema_management_strategy = CREATE
#should be green for prod
hibernate.search.default.elasticsearch.required_index_status = yellow
hibernate.search.elasticsearch.scroll_backtracking_window_size=10000
hibernate.search.elasticsearch.scroll_fetch_size=1000
堆栈跟踪:
Exception in thread "Hibernate Search: Elasticsearch transport thread-3" java.lang.OutOfMemoryError: GC overhead limit exceeded
at java.util.HashMap$KeySet.iterator(HashMap.java:917)
at java.util.HashSet.iterator(HashSet.java:173)
at java.util.Collections$UnmodifiableCollection.<init>(Collections.java:1039)
at java.util.Collections$UnmodifiableCollection.iterator(Collections.java:1038)
at org.apache.http.impl.nio.reactor.BaseIOReactor.validate(BaseIOReactor.java:212)
at org.apache.http.impl.nio.reactor.AbstractIOReactor.execute(AbstractIOReactor.java:280)
at org.apache.http.impl.nio.reactor.BaseIOReactor.execute(BaseIOReactor.java:104)
at org.apache.http.impl.nio.reactor.AbstractMultiworkerIOReactor$Worker.run(AbstractMultiworkerIOReactor.java:588)
at java.lang.Thread.run(Thread.java:748)
2018-08-15 11:37:53.184 ERROR 10624 --- [nsport thread-1] o.a.h.i.n.c.InternalHttpAsyncClient : I/O reactor terminated abnormally
org.apache.http.nio.reactor.IOReactorException: I/O dispatch worker terminated abnormally
at org.apache.http.impl.nio.reactor.AbstractMultiworkerIOReactor.execute(AbstractMultiworkerIOReactor.java:356) ~[httpcore-nio-4.4.9.jar:4.4.9]
at org.apache.http.impl.nio.conn.PoolingNHttpClientConnectionManager.execute(PoolingNHttpClientConnectionManager.java:194) ~[httpasyncclient-4.1.3.jar:4.1.3]
at org.apache.http.impl.nio.client.CloseableHttpAsyncClientBase.run(CloseableHttpAsyncClientBase.java:64) ~[httpasyncclient-4.1.3.jar:4.1.3]
at java.lang.Thread.run(Thread.java:748) [na:1.8.0_171]
Caused by: java.lang.OutOfMemoryError: GC overhead limit exceeded
at java.util.HashMap$KeySet.iterator(HashMap.java:917) ~[na:1.8.0_171]
at java.util.HashSet.iterator(HashSet.java:173) ~[na:1.8.0_171]
at java.util.Collections$UnmodifiableCollection.<init>(Collections.java:1039) ~[na:1.8.0_171]
at java.util.Collections$UnmodifiableCollection.iterator(Collections.java:1038) ~[na:1.8.0_171]
at org.apache.http.impl.nio.reactor.BaseIOReactor.validate(BaseIOReactor.java:212) ~[httpcore-nio-4.4.9.jar:4.4.9]
at org.apache.http.impl.nio.reactor.AbstractIOReactor.execute(AbstractIOReactor.java:280) ~[httpcore-nio-4.4.9.jar:4.4.9]
at org.apache.http.impl.nio.reactor.BaseIOReactor.execute(BaseIOReactor.java:104) ~[httpcore-nio-4.4.9.jar:4.4.9]
at org.apache.http.impl.nio.reactor.AbstractMultiworkerIOReactor$Worker.run(AbstractMultiworkerIOReactor.java:588) ~[httpcore-nio-4.4.9.jar:4.4.9]
... 1 common frames omitted
是否有任何调整可以帮助缓解这种情况?
仅仅因为 Hibernate Search 索引器触发了 OutOfMemoryError
,并不意味着 Hibernate Search 索引器是消耗过多内存的索引器。它只是碰巧超过了内存限制,但问题也可能在于您的实体持久性代码的行为方式。需要明确的是,如果您的 JVM 的其余部分占用 999MB 而 Hibernate Search 仅分配 2MB,Hibernate Search 将在最后请求内存时触发 OutOfMemoryError
。
现在,当 persisting/indexing 大量数据时,最可能出现的问题是您没有在代码中采取任何预防措施,只是简单地循环并向事务添加越来越多的更改,从而强制 Hibernate ORM 和搜索将越来越多的数据存储在内部缓冲区中,直到事务最终提交。
除非你使用 JMS 后端(这很难,我不会推荐),我所知道的唯一解决方案将迫使你失去一点 "transactionality",这意味着失败在您的流程中将使您的数据处于不一致状态。
第一个也许更正确的解决方案是不要使用单个大交易,而要使用多个小交易。例如,为 200 个元素的每个块创建一个事务。当然这意味着如果一个块失败了,之前的块仍然在数据库中,但在很多情况下这可能无关紧要,因为你可以从失败的地方重新开始,索引仍然会与数据库同步。
Spring 让您可以使用 transaction templates 控制交易,因此您可以为每个包含 200 个元素的块手动启动一个新交易,或者重构您的代码以将 @Transactional
注释在正确的地方。
第二种解决方案是您仍然使用单个大事务,但在事务期间定期将您的更改刷新到数据库(如果事务中止,稍后可以回滚更改,别担心)和索引(not 以后无法回滚更改)。这特别意味着如果事务失败,您将不得不重新启动所有内容 并且 清除索引,因为它不再与数据库同步(回滚更改)。
您可以在文档中找到使用定期刷新的示例:https://docs.jboss.org/hibernate/search/5.10/reference/en-US/html_single/#search-batchindex-flushtoindexes
如果您改编示例,您的代码将大致如下所示:
// Execute the code below inside a transaction
Session session = ...;
FullTextSession fullTextSession = Search.getFullTextSession( session );
int index = 0;
while(results.next()) {
index++;
// TODO: add code here to insert one row
if (index % BATCH_SIZE == 0) {
session.flush(); //apply changes to the database
fullTextSession.flushToIndexes(); //apply changes to indexes
fullTextSession.clear(); //free memory since the queue is processed
}
}
我使用带弹性搜索的休眠搜索作为我的索引管理器。目前,我的 jvm 设置为使用 1gb 内存,我不想增加内存。
我有一个 @Transactional
class 为索引 @Entity
.
虽然插入成功,但 lucene 索引器 运行 内存不足导致事务回滚。下面是我的休眠搜索配置和异常堆栈跟踪:
hibernate.search.default.indexmanager = elasticsearch
elastic= hibernate.search.default.elasticsearch.host =http://localhost:9200
hibernate.search.default.elasticsearch.index_schema_management_strategy = CREATE
#should be green for prod
hibernate.search.default.elasticsearch.required_index_status = yellow
hibernate.search.elasticsearch.scroll_backtracking_window_size=10000
hibernate.search.elasticsearch.scroll_fetch_size=1000
堆栈跟踪:
Exception in thread "Hibernate Search: Elasticsearch transport thread-3" java.lang.OutOfMemoryError: GC overhead limit exceeded
at java.util.HashMap$KeySet.iterator(HashMap.java:917)
at java.util.HashSet.iterator(HashSet.java:173)
at java.util.Collections$UnmodifiableCollection.<init>(Collections.java:1039)
at java.util.Collections$UnmodifiableCollection.iterator(Collections.java:1038)
at org.apache.http.impl.nio.reactor.BaseIOReactor.validate(BaseIOReactor.java:212)
at org.apache.http.impl.nio.reactor.AbstractIOReactor.execute(AbstractIOReactor.java:280)
at org.apache.http.impl.nio.reactor.BaseIOReactor.execute(BaseIOReactor.java:104)
at org.apache.http.impl.nio.reactor.AbstractMultiworkerIOReactor$Worker.run(AbstractMultiworkerIOReactor.java:588)
at java.lang.Thread.run(Thread.java:748)
2018-08-15 11:37:53.184 ERROR 10624 --- [nsport thread-1] o.a.h.i.n.c.InternalHttpAsyncClient : I/O reactor terminated abnormally
org.apache.http.nio.reactor.IOReactorException: I/O dispatch worker terminated abnormally
at org.apache.http.impl.nio.reactor.AbstractMultiworkerIOReactor.execute(AbstractMultiworkerIOReactor.java:356) ~[httpcore-nio-4.4.9.jar:4.4.9]
at org.apache.http.impl.nio.conn.PoolingNHttpClientConnectionManager.execute(PoolingNHttpClientConnectionManager.java:194) ~[httpasyncclient-4.1.3.jar:4.1.3]
at org.apache.http.impl.nio.client.CloseableHttpAsyncClientBase.run(CloseableHttpAsyncClientBase.java:64) ~[httpasyncclient-4.1.3.jar:4.1.3]
at java.lang.Thread.run(Thread.java:748) [na:1.8.0_171]
Caused by: java.lang.OutOfMemoryError: GC overhead limit exceeded
at java.util.HashMap$KeySet.iterator(HashMap.java:917) ~[na:1.8.0_171]
at java.util.HashSet.iterator(HashSet.java:173) ~[na:1.8.0_171]
at java.util.Collections$UnmodifiableCollection.<init>(Collections.java:1039) ~[na:1.8.0_171]
at java.util.Collections$UnmodifiableCollection.iterator(Collections.java:1038) ~[na:1.8.0_171]
at org.apache.http.impl.nio.reactor.BaseIOReactor.validate(BaseIOReactor.java:212) ~[httpcore-nio-4.4.9.jar:4.4.9]
at org.apache.http.impl.nio.reactor.AbstractIOReactor.execute(AbstractIOReactor.java:280) ~[httpcore-nio-4.4.9.jar:4.4.9]
at org.apache.http.impl.nio.reactor.BaseIOReactor.execute(BaseIOReactor.java:104) ~[httpcore-nio-4.4.9.jar:4.4.9]
at org.apache.http.impl.nio.reactor.AbstractMultiworkerIOReactor$Worker.run(AbstractMultiworkerIOReactor.java:588) ~[httpcore-nio-4.4.9.jar:4.4.9]
... 1 common frames omitted
是否有任何调整可以帮助缓解这种情况?
仅仅因为 Hibernate Search 索引器触发了 OutOfMemoryError
,并不意味着 Hibernate Search 索引器是消耗过多内存的索引器。它只是碰巧超过了内存限制,但问题也可能在于您的实体持久性代码的行为方式。需要明确的是,如果您的 JVM 的其余部分占用 999MB 而 Hibernate Search 仅分配 2MB,Hibernate Search 将在最后请求内存时触发 OutOfMemoryError
。
现在,当 persisting/indexing 大量数据时,最可能出现的问题是您没有在代码中采取任何预防措施,只是简单地循环并向事务添加越来越多的更改,从而强制 Hibernate ORM 和搜索将越来越多的数据存储在内部缓冲区中,直到事务最终提交。
除非你使用 JMS 后端(这很难,我不会推荐),我所知道的唯一解决方案将迫使你失去一点 "transactionality",这意味着失败在您的流程中将使您的数据处于不一致状态。
第一个也许更正确的解决方案是不要使用单个大交易,而要使用多个小交易。例如,为 200 个元素的每个块创建一个事务。当然这意味着如果一个块失败了,之前的块仍然在数据库中,但在很多情况下这可能无关紧要,因为你可以从失败的地方重新开始,索引仍然会与数据库同步。
Spring 让您可以使用 transaction templates 控制交易,因此您可以为每个包含 200 个元素的块手动启动一个新交易,或者重构您的代码以将 @Transactional
注释在正确的地方。
第二种解决方案是您仍然使用单个大事务,但在事务期间定期将您的更改刷新到数据库(如果事务中止,稍后可以回滚更改,别担心)和索引(not 以后无法回滚更改)。这特别意味着如果事务失败,您将不得不重新启动所有内容 并且 清除索引,因为它不再与数据库同步(回滚更改)。
您可以在文档中找到使用定期刷新的示例:https://docs.jboss.org/hibernate/search/5.10/reference/en-US/html_single/#search-batchindex-flushtoindexes
如果您改编示例,您的代码将大致如下所示:
// Execute the code below inside a transaction
Session session = ...;
FullTextSession fullTextSession = Search.getFullTextSession( session );
int index = 0;
while(results.next()) {
index++;
// TODO: add code here to insert one row
if (index % BATCH_SIZE == 0) {
session.flush(); //apply changes to the database
fullTextSession.flushToIndexes(); //apply changes to indexes
fullTextSession.clear(); //free memory since the queue is processed
}
}