Lucene 和 Elasticsearch 超越文档限制
Lucene and Elasticsearch going past the document limit
当我们尝试将更多文档引入 'Lucene' 实例超过其最大限制 2,147,483,519 时会发生什么?
我读到,当我们接近 20 亿个文档时,我们开始看到性能下降。
但是 'Lucene' 是否只是停止接受超过其最大限制的新文档。
此外,'Elasticsearch' 如何在达到文档限制时为其其中一个分片处理相同的场景。
引擎盖下的每个 elasticsearch 分片都是 Lucene 索引,因此此限制也适用于 Elasticsearch 分片,并且基于此 Lucene issue 看起来它停止索引更多文档。
性能下降受多种因素影响,例如这些文档的大小、分配给 Elasticsearch 进程的 JVM(最大限制为约 32 GB)以及 Lucene 使用的可用文件系统缓存,CPU、网络带宽等
当我们尝试将更多文档引入 'Lucene' 实例超过其最大限制 2,147,483,519 时会发生什么?
我读到,当我们接近 20 亿个文档时,我们开始看到性能下降。 但是 'Lucene' 是否只是停止接受超过其最大限制的新文档。
此外,'Elasticsearch' 如何在达到文档限制时为其其中一个分片处理相同的场景。
引擎盖下的每个 elasticsearch 分片都是 Lucene 索引,因此此限制也适用于 Elasticsearch 分片,并且基于此 Lucene issue 看起来它停止索引更多文档。
性能下降受多种因素影响,例如这些文档的大小、分配给 Elasticsearch 进程的 JVM(最大限制为约 32 GB)以及 Lucene 使用的可用文件系统缓存,CPU、网络带宽等