有多少个 OSD 宕机,Ceph 就会丢失数据
How many OSD are down, Ceph will lost the data
我有一个带一个池的 Ceph 节点,配置大小为 3 和 98 OSD。因此,如果 1 个 OSD 宕机我们不担心丢失数据,但有多少 OSD 宕机我们会关心这个问题?
无论如何,请帮助我了解当一个 OSD 关闭时发生了什么,是否有将数据任务复制到新的 OSD?
这取决于哪些 OSD 出现故障。如果 ceph 有足够的时间和 space 来恢复失败的 OSD,那么您的集群可以在 acting set 的两个失败的 OSD 中存活下来。但话又说回来,这也取决于你的实际配置(ceph osd 树)和规则集。还要记住,为了在 OSD 失败后重新平衡,您的集群可以更快地填满,因为它丢失了整个 OSD。恢复在 OSD 关闭 10 分钟后开始,然后它被标记为“out”并开始重新映射。
我有一个带一个池的 Ceph 节点,配置大小为 3 和 98 OSD。因此,如果 1 个 OSD 宕机我们不担心丢失数据,但有多少 OSD 宕机我们会关心这个问题? 无论如何,请帮助我了解当一个 OSD 关闭时发生了什么,是否有将数据任务复制到新的 OSD?
这取决于哪些 OSD 出现故障。如果 ceph 有足够的时间和 space 来恢复失败的 OSD,那么您的集群可以在 acting set 的两个失败的 OSD 中存活下来。但话又说回来,这也取决于你的实际配置(ceph osd 树)和规则集。还要记住,为了在 OSD 失败后重新平衡,您的集群可以更快地填满,因为它丢失了整个 OSD。恢复在 OSD 关闭 10 分钟后开始,然后它被标记为“out”并开始重新映射。