将自动故障转移添加到我现有的群集中?

时间:2019-05-20 05:19:40

标签: hadoop apache-zookeeper

我需要有关Hadoop中自动故障转移的帮助。要求是在故障期间将控制权从一个节点转移到另一个节点。我已经在运行群集,并希望将其添加到现有群集中。

hdfs dfsadmin-报告 配置的容量:4393174024192(4.00 TB) 现有容量:4101312667648(3.73 TB) 剩余DFS:4100850401280(3.73 TB) 使用的DFS:462266368(440.85 MB) 使用的DFS%:0.01% 复制块:     在复制块下:20     具有损坏副本的块:0     缺少的块:0     丢失的块(复制因子为1):0     具有最高优先级的低冗余块:0     待删除的区块:0 擦除编码块组:     低冗余块组:0     内部块损坏的块组:0     缺少的分组组:0     具有最高优先级的低冗余块:0     待删除的区块:0


实时数据节点(4):

名称:192.168.5.250:9866(odin) 主机名:odin 退役状态:正常 配置的容量:1098293506048(1022.87 GB) 使用的DFS:222879744(212.55 MB) 非DFS使用:16838836224(15.68 GB) 剩余DFS:1025325965312(954.91 GB) 使用的DFS%:0.02% DFS剩余百分比:93.36% 配置的缓存容量:0(0 B) 使用的缓存:0(0 B) 剩余缓存:0(0 B) 已用缓存%:100.00% 剩余缓存百分比:0.00% Xceivers:1个 上次联络人:IST 2019年5月20日星期一10:44:50 最新封锁报告:IST 2019年5月20日星期一09:12:14 区块总数:129

名称:192.168.5.251:9866(loki) 主机名:loki 退役状态:正常 配置的容量:1098293506048(1022.87 GB) 使用的DFS:145424384(138.69 MB) 非DFS使用:15433760768(14.37 GB) 剩余DFS:1026808496128(956.29 GB) 使用的DFS%:0.01% DFS剩余百分比:93.49% 配置的缓存容量:0(0 B) 使用的缓存:0(0 B) 剩余缓存:0(0 B) 已用缓存%:100.00% 剩余缓存百分比:0.00% Xceivers:1个 上次联络人:IST 2019年5月20日星期一10:44:50 最新封锁报告:IST 2019年5月20日星期一09:12:14 区块数:106

名称:192.168.5.252:9866(thor) 主机名:thor 退役状态:正常 配置的容量:1098293506048(1022.87 GB) 使用的DFS:8003584(7.63 MB) 非DFS使用:16954404864(15.79 GB) 剩余DFS:1025425272832(955.00 GB) 使用的DFS%:0.00% DFS剩余百分比:93.37% 配置的缓存容量:0(0 B) 使用的缓存:0(0 B) 剩余缓存:0(0 B) 已用缓存%:100.00% 剩余缓存百分比:0.00% Xceivers:1个 上次联络人:IST 2019年5月20日星期一10:44:50 最新封锁报告:IST 2019年5月20日星期一10:08:38 区块数:102

名称:192.168.5.253:9866(hela) 主机名:hela 退役状态:正常 配置的容量:1098293506048(1022.87 GB) 使用的DFS:85958656(81.98 MB) 非DFS使用:19011055616(17.71 GB) 剩余DFS:1023290667008(953.01 GB) 使用的DFS%:0.01% DFS剩余百分比:93.17% 配置的缓存容量:0(0 B) 使用的缓存:0(0 B) 剩余缓存:0(0 B) 已用缓存%:100.00% 剩余缓存百分比:0.00% Xceivers:1个 上次联络人:IST 2019年5月20日星期一10:44:50 最新封锁报告:IST 2019年5月20日星期一09:12:14 区块数:109

1 个答案:

答案 0 :(得分:0)

[https://hadoop.apache.org/docs/current/hadoop-project-dist/hadoop-hdfs/HDFSHighAvailabilityWithNFS.html][1] , I found this link and [https://www.edureka.co/blog/how-to-set-up-hadoop-cluster-with-hdfs-high-availability/][1]
Both will helps for setting this environment.