ElasticSearch 副本计数故障模式
ElasticSearch Replica Count Failure Modes
我正在研究 Elasticsearch 功能以更新索引的副本分片数量。文档:https://www.elastic.co/guide/en/elasticsearch/reference/current/indices-update-settings.html
PUT /my-index-000001/_settings
{
"index" : {
"number_of_replicas" : 2
}
}
我正在研究此操作可能失败的所有方式,但有一种方式我无法弄清楚(没有深入研究源代码..)。如果选择的副本数量 运行 进入磁盘 space 约束会怎样?这是否意味着整个副本操作都被回滚了?是否所有可以放入当前有限大小的额外副本都保留下来,而剩余的不适合的副本将不会生成?
例如,假设我有一个索引需要 10GB 的主分片。最大存储容量为 55GB。如果我将副本计数更改为 6(为简单起见,我们假设每个副本增加 10GB - 为简单起见)。这是否意味着它将创建 5 个良好的副本并在第 6 个在所有分片上失败?它会回滚整个操作吗?它真的会为一些人创建 6 个副本而为其他人留下 5 个副本吗?我找不到这个信息,它与我想通过 ES 可操作性实现的目标非常相关。谢谢
将创建指定数量的副本。可以分配给节点的将被分配,不能分配的(由于 space 或分配意识限制)将被保留为未分配,您的集群将从绿色变为黄色。
也许如果你解释你的用例和你想要实现的目标,我们可以给出更具体的答案。
我正在研究 Elasticsearch 功能以更新索引的副本分片数量。文档:https://www.elastic.co/guide/en/elasticsearch/reference/current/indices-update-settings.html
PUT /my-index-000001/_settings
{
"index" : {
"number_of_replicas" : 2
}
}
我正在研究此操作可能失败的所有方式,但有一种方式我无法弄清楚(没有深入研究源代码..)。如果选择的副本数量 运行 进入磁盘 space 约束会怎样?这是否意味着整个副本操作都被回滚了?是否所有可以放入当前有限大小的额外副本都保留下来,而剩余的不适合的副本将不会生成?
例如,假设我有一个索引需要 10GB 的主分片。最大存储容量为 55GB。如果我将副本计数更改为 6(为简单起见,我们假设每个副本增加 10GB - 为简单起见)。这是否意味着它将创建 5 个良好的副本并在第 6 个在所有分片上失败?它会回滚整个操作吗?它真的会为一些人创建 6 个副本而为其他人留下 5 个副本吗?我找不到这个信息,它与我想通过 ES 可操作性实现的目标非常相关。谢谢
将创建指定数量的副本。可以分配给节点的将被分配,不能分配的(由于 space 或分配意识限制)将被保留为未分配,您的集群将从绿色变为黄色。
也许如果你解释你的用例和你想要实现的目标,我们可以给出更具体的答案。