单节点集群上的 HDFS 复制因子
HDFS replication factor on single node cluster
对于单节点集群,我可以有多个副本吗?我已将 hdfs-site.xml 中的复制因子更新为 2 并重新启动了所有节点,但仍然只为新文件创建了一个块,帮助我弄清楚这一点
没有。单个节点集群不能有多个复制因子。是什么让您认为这是可能的?
复制是保存数据的过程,这样您就不会在任何最坏的情况下丢失数据。如果你将它设置为 2,这意味着你希望你的数据被复制到 2 个节点(机器)上,这样如果一个节点出现故障,你的数据仍然可以安全地保存在另一个节点上。
现在Hadoop默认提供的replication是3,也就是说在不同rack上的3个不同节点上会有3个Replications(Copy)数据(这是另外一个概念,叫做Hadoop的Rack awareness)
因此,您将无法在单节点群集上获得一份以上的数据副本。希望它能解决您的疑问!
对于单节点集群,我可以有多个副本吗?我已将 hdfs-site.xml 中的复制因子更新为 2 并重新启动了所有节点,但仍然只为新文件创建了一个块,帮助我弄清楚这一点
没有。单个节点集群不能有多个复制因子。是什么让您认为这是可能的?
复制是保存数据的过程,这样您就不会在任何最坏的情况下丢失数据。如果你将它设置为 2,这意味着你希望你的数据被复制到 2 个节点(机器)上,这样如果一个节点出现故障,你的数据仍然可以安全地保存在另一个节点上。
现在Hadoop默认提供的replication是3,也就是说在不同rack上的3个不同节点上会有3个Replications(Copy)数据(这是另外一个概念,叫做Hadoop的Rack awareness)
因此,您将无法在单节点群集上获得一份以上的数据副本。希望它能解决您的疑问!