Hadoop 中 HDFS 写入的名称节点如何更新数据节点的可用性

How Name node update availability of Data Nodes for HDFS writes in Hadoop

我有 10 个数据节点,复制因子为 3,文件大小为 150,块大小为 64。因此文件将被拆分为三个块 B1、B2、B3。因此,客户端向名称节点询问数据节点是否可用以写入 B1 块。我的问题是名称节点将向客户端提供多少数据节点用于写入 B1 块。 还有一个问题是 B1、B2、B3 的写入将如何并行或顺序发生

  1. 数据将由客户端只写入一个数据节点,其余复制由数据节点本身在名称节点指令上处理。 Replica placement:当一个datanode从客户端接收block的数据时,datanode将数据保存在一个文件中,该文件代表该block,同时re-sends将数据保存到另一个datanode,这应该是创建块的另一个副本。

  2. 块按顺序复制