有多少个 OSD 宕机,Ceph 就会丢失数据

How many OSD are down, Ceph will lost the data

我有一个带一个池的 Ceph 节点,配置大小为 3 和 98 OSD。因此,如果 1 个 OSD 宕机我们不担心丢失数据,但有多少 OSD 宕机我们会关心这个问题? 无论如何,请帮助我了解当一个 OSD 关闭时发生了什么,是否有将数据任务复制到新的 OSD?

这取决于哪些 OSD 出现故障。如果 ceph 有足够的时间和 space 来恢复失败的 OSD,那么您的集群可以在 acting set 的两个失败的 OSD 中存活下来。但话又说回来,这也取决于你的实际配置(ceph osd 树)和规则集。还要记住,为了在 OSD 失败后重新平衡,您的集群可以更快地填满,因为它丢失了整个 OSD。恢复在 OSD 关闭 10 分钟后开始,然后它被标记为“out”并开始重新映射。