单节点集群上的HDFS复制因子

时间:2018-06-13 17:20:36

标签: hadoop hdfs replication

单节点群集可以有多个副本吗?我在hdfs-site.xml中将复制因子更新为2并重新启动了所有节点,但仍然只为新文件创建了一个块,帮助我明确了这个

1 个答案:

答案 0 :(得分:0)

没有。对于单个节点群集,您不能拥有多个复制因子。是什么让你觉得它甚至可能?

复制是保存数据的过程,这样您就不会在任何最糟糕的情况下丢失数据。如果您将其设置为2,则意味着您希望将数据复制到2个节点(计算机)上,这样如果一个网站出现故障,您仍然可以在另一个节点上保护数据安全。

现在,Hadoop提供的默认复制是3.这意味着在不同机架上的3个不同节点上将有3个数据复制(复制)(这是另一个被称为Hadoop'机架感知的概念)

因此,您无法在单个节点群集上获得多个数据副本。我希望它能清除你的疑问!

相关问题