将新节点添加到正在运行的Hadoop集群

时间:2015-01-19 09:42:24

标签: hadoop hdfs yarn

我有一个正在运行的Hadoop 2.6.0群集,包含2个节点和1个主节点。 现在我正在尝试将另一个节点发送到正在运行的集群。

我已将新节点添加到slaves文件中,并通过SSH从主节点访问该节点。 然后我执行了:

hadoop-daemons.sh --script hdfs start datanode
yarn-daemons.sh start nodemanager

我看到节点上运行的datanode和nodemanager,但是当我在Master

上运行时
hdfs dfsadmin -report

我只看到2个节点。 有人可以帮我解决这个问题吗?

提前致谢!

0 个答案:

没有答案