HDFS集群中的HDFS副本+和最小数据节点数

我们有仅2个数据节点机器的Hadoop集群

HDFS配置中,我们将Block replication定义为3

如此

Block replication=3

可以吗?当集群中只有两个数据节点时,将其定义为Block replication=3

根据我的理解,

当我们在replication=3集群中有2个数据节点机器时定义块HDFS时,这意味着一台机器应具有2个副本,另一台机器应具有一个副本,我在这里正确吗?

iCMS 回答:HDFS集群中的HDFS副本+和最小数据节点数

复制因子的整个目的是容错。例如,复制因子为3,如果我们从集群中丢失hadoop数据节点,则可以在集群中再复制2个副本来复制数据。因此,在您的情况下,如果datanode的数量为2,并且复制因子为3,则如果node-a将具有2个副本,而另一个node-b将具有1个副本(例如),则为是。如果我们丢失了节点a或节点b,我们将在其他节点中获得可用的数据,无论如何都可以达到目的。 除了节点a将占据双倍空间这一事实外,这是不必要的,因为复制因子2本身已经可以满足容错目的。

同样,整个解释都针对您的情况。当在具有两个以上节点的群集中可视化整个概念时,整个概念将更有意义。

以下是hadoop文档的详细说明 https://hadoop.apache.org/docs/r1.2.1/hdfs_design.html#Data+Replication

本文链接:https://www.f2er.com/2020397.html

大家都在问