Elasticsearch 最佳分片数
Elasticsearch Best Shard Count
我有一个包含 2.3TB 数据的集群。数据不断accessed/has数据removed/added.
目前基础设施不堪重负,所以我正在研究优化。 100 个碎片太多了。
我看到每个分片最多 30GB 的答案,然后我听说“每个节点应该只有 3 个分片”。我目前在 4 个节点上。这可以提高。
那么我应该继续使用 100 个分片(这使得每个分片为 20-25GB)还是应该将索引缩小到 12 个分片(3 个分片 x 4 个节点)?
这种情况下的最佳做法是什么?保持速度。
你说得对,分片和副本在 Elasticsearch 的搜索和索引以及整体性能中起着非常重要的作用,但你遗漏了一些重要的概念,这些概念在 opster's shard and replica guide 中有详细介绍。
这应该有助于确定根本原因,并让您深入了解如何提高 Elasticsearch 集群的性能。
此外,您的说法每个节点应该只有 3 个分片是不正确的,最佳做法是分片大小 b/w 30-50 GB 并且节点中的分片数量取决于 Elasticsearch 进程的 JVM 及其大小和您的用例。
我有一个包含 2.3TB 数据的集群。数据不断accessed/has数据removed/added.
目前基础设施不堪重负,所以我正在研究优化。 100 个碎片太多了。
我看到每个分片最多 30GB 的答案,然后我听说“每个节点应该只有 3 个分片”。我目前在 4 个节点上。这可以提高。
那么我应该继续使用 100 个分片(这使得每个分片为 20-25GB)还是应该将索引缩小到 12 个分片(3 个分片 x 4 个节点)?
这种情况下的最佳做法是什么?保持速度。
你说得对,分片和副本在 Elasticsearch 的搜索和索引以及整体性能中起着非常重要的作用,但你遗漏了一些重要的概念,这些概念在 opster's shard and replica guide 中有详细介绍。
这应该有助于确定根本原因,并让您深入了解如何提高 Elasticsearch 集群的性能。
此外,您的说法每个节点应该只有 3 个分片是不正确的,最佳做法是分片大小 b/w 30-50 GB 并且节点中的分片数量取决于 Elasticsearch 进程的 JVM 及其大小和您的用例。