我们必须将数据上传到哪个slave到hadoop集群

which slave we have to upload the data into hadoop cluster

我们已经用 2 台机器设置了 hadoop 集群,我们正在尝试在我们的实时项目中实施集群,我们需要多节点集群中有关上传数据的信息,假设我有 9 个数据节点,这从节点我们需要上传 data.can 我可以选择将数据上传到 2 个从节点,如果我将数据上传到 hdfs 是否会复制到另一个从节点?正如我们观察到的,当前使用 /tmp 位置的 hdfs 如果 /tmp 已满,HDFS 将使用哪个位置。

加入更多集群的目的是为了扩大数据存储量.. 您是否正在寻找安全的集群,向某些用户授予权限以将数据上传到 HDFS? right If表示你可以执行KERBEROS原则或者授权用户上传数据!

数据复制: 是的,一旦数据将上传到 HDFS,它就会将数据复制到节点中,一旦数据节点退役,它就会小心地将数据从退役节点移动到另一个节点。