循环分布式哈希 Table 覆盖 P2P 网络
Circular Distributed Hash Table overlay P2P network
我想我在这里漏掉了一些东西,或者可能是一些令人困惑的术语。
当对等点离开 p2p 网络时,覆盖 DHT 中存储在对等点的 key:value 对会发生什么情况?他们是否被转移到新的合适的最近的继任者?如果是这样的话,是否有一个标准的机制。
我的理解是,当一个对等点离开时,必须按预期修改相邻对等点的后继者和前任对等点信息,但是我似乎无法找到有关该对等点存储的实际数据发生了什么的信息。当节点流失发生时,数据如何在 DHT 中保持完整?
谢谢。
这通常不是作为 DHT 核心的抽象路由算法的一部分,而是特定于实现的行为。
通常您会希望将数据存储在与目标键相邻的多个节点上,这样您将获得一些冗余来处理故障。
要使其保持活动状态,您可以让原始节点定期重新发布它,或者让存储节点在彼此之间复制它。如果处理得当,后者会导致较少的流量,但实施起来会更复杂。
我想我在这里漏掉了一些东西,或者可能是一些令人困惑的术语。
当对等点离开 p2p 网络时,覆盖 DHT 中存储在对等点的 key:value 对会发生什么情况?他们是否被转移到新的合适的最近的继任者?如果是这样的话,是否有一个标准的机制。
我的理解是,当一个对等点离开时,必须按预期修改相邻对等点的后继者和前任对等点信息,但是我似乎无法找到有关该对等点存储的实际数据发生了什么的信息。当节点流失发生时,数据如何在 DHT 中保持完整?
谢谢。
这通常不是作为 DHT 核心的抽象路由算法的一部分,而是特定于实现的行为。
通常您会希望将数据存储在与目标键相邻的多个节点上,这样您将获得一些冗余来处理故障。
要使其保持活动状态,您可以让原始节点定期重新发布它,或者让存储节点在彼此之间复制它。如果处理得当,后者会导致较少的流量,但实施起来会更复杂。