集群无法使用cdh4 tarball安装

时间:2013-03-24 18:16:05

标签: hadoop cloudera

我正在尝试使用tarball版本安装CDH4,但是按照我采取的步骤遇到问题如下:

我从链接https://ccp.cloudera.com/display/SUPPORT/CDH4+Downloadable+Tarballs

下载了tarball

我首先解开hadoop-0.20-mapreduce-0.20.2 + 1341 tar文件

我在

中进行了配置更改
hadoop-0.20-mapreduce-0.20.2+1341  since i wanted mrv1 not yarn .

cdh4安装中提到的第一件事就是配置HDFS

我在

中做了相关更改
core-site.xml
hdfs-site.xml
mapred-site.xml
masters --- which is my namenode
slaves ---- my datanodes

复制了群集中所有节点上的hadoop配置

做了一个namenode格式。

格式化之后我必须启动集群,但在bin文件夹中却无法

找到start-all.sh脚本。所以在这种情况下我开始使用命令

bin/start-mapred.sh

在日志中显示jobtracker已启动,tasktracker在slave节点上启动 但是当我做一个jps

我只能看到

jobtracker
jps

进一步使用以下命令

在datanode上启动datanode
bin/hadoop-daemon.sh start datanode .

它显示datanode已启动。

Namenode没有开始,tasktracker没有开始。

当我查看我的日志时,我可以看到

ERROR org.apache.hadoop.hdfs.server.namenode.NameNode: Exception in namenode join
java.io.FileNotFoundException: webapps/hdfs not found in CLASSPATH

不确定是什么阻止我的群集工作。

早些时候我运行了cdh3。所以我停止了cdh3集群。然后我开始安装cdh4。此外,我更改了所有目录hdfs-site.xml,即为namenode和datanode指向新的空目录,而不是使用cdh3中定义的目录。

但似乎没有任何帮助。

此外我关闭了防火墙,因为我确实有root权限,但同样的事情对我不起作用。

对上述任何帮助都会有很大的帮助。


谢谢你的回复,但是

我没有

start-dfs.sh file in bin folder 

只有/home/hadoop-2.0.0-mr1-cdh4.2.0/bin文件夹中的文件为

start-mapred.sh
stop-mapred.sh
hadoop-daemon.sh
hadoop-daemons.sh
hadoop-config.sh
rcc
slaves.sh
hadoop
现在我使用的

命令如下

用于启动datanode:

for x in /home/hadoop-2.0.0-mr1-cdh4.2.0/bin/hadoop-* ; do $x start datanode ; done ;

用于启动namenode:

bin/start-mapred.sh

我仍然在处理同样的问题。

2 个答案:

答案 0 :(得分:1)

很抱歉上述误解可以运行以下命令来启动datanode和namenode

启动namenode:

hadoop-daemon.sh  start namenode 

启动datanode:

hadoop-daemons.sh  start datanode 

启动secondarynamenode:

hadoop-daemons.sh --hosts masters start secondarynamenode

答案 1 :(得分:-1)

jobtracker 恶魔将在您的主节点中启动, tasktraker 恶魔将在您运行命令后启动每个数据节点

bin/start-mapred.sh

Hadoop群集设置中,只有 jobtacker 恶魔将通过masternode中的JPS命令显示,并且在每个数据节点中,您都可以看到 Tasktracker 恶魔使用JPS命令运行。

然后你必须通过在你的masternode

中运行以下命令来启动HDFS
bin/start-dfs.sh

此命令将在您的namenode计算机中启动 namenode 恶魔(在此配置中,我相信您的masternode),并且在每个从属节点中启动 Datanode 恶魔。 / p>

现在,您可以在每个数据节点上运行JPS,它将提供输出

tasktracker
datanode
jps

我认为这个链接很有用 http://www.michael-noll.com/tutorials/running-hadoop-on-ubuntu-linux-multi-node-cluster/

相关问题