Hadoop设置ubuntu名称节点,数据节点不工作-jps

时间:2012-10-24 15:34:38

标签: hadoop ubuntu-12.04

我试图在我的电脑上使用Ubuntu 12.10设置Hadoop单节点集群。参考tutorial on Michael-noll.com

  • 在执行' /usr/local/hadoop/bin/start-all.sh '命令

  • 之前,一切顺利
  • 之后我执行了java进程状态“ / usr / local / hadoop $ jps

然后我发现Data NodeTask TrackerName Node未列出(即无效)

任何人都可以帮助解决这种情况。

5 个答案:

答案 0 :(得分:1)

重置您的core-site.xml文件

  <property>
    <name>hadoop.tmp.dir</name>
    <value>/home/rlk/hduser</value>
  </property>
  <property>
    <name>fs.default.name</name>
    <value>hdfs://localhost/</value>
  </property>

答案 1 :(得分:0)

格式化名称节点,然后使用start-all.sh命令再次启动所有服务,并检查使用jps的状态。如果退出应用程序而不停止服务,则可能会发生这种情况。因此,在退出应用程序之前,请确保已使用stop-all.sh停止所有服务。

答案 2 :(得分:0)

  1. 好吧,我认为您将Hadoop安装到/usr/local/hadoop

  2. 当您运行start-all.sh时,hadoop会将日志写入/usr/local/hadoop/logs目录, 但是,Hadoop可能没有对此目录的写入权限。

  3. 请检查/usr/local/hadoop/logs/中的所有日志文件,找出问题所在。

  4. 如何解决?

    4.1修改/usr/local/hadoop/conf/hadoop-env.sh,即    添加export HADOOP_LOG_DIR=/tmp/hadoop/logs

    4.2再次重启Hadoop和jps,并检查日志文件

  5. 如果您再次遇到问题,我建议您在此处发布相关日志。:)

答案 3 :(得分:0)

您应该对core-site.xml中为属性hadoop.tmp.dir提及的目录具有写入权限。我已在此链接Hadoop Series Single Node Installation.

中解释了这一点

答案 4 :(得分:0)

套餐验证

  1. $ rpm ­‐ql hadoop-­‐0.20-­‐conf-­‐pseudo
  2. 格式化NameNode

    1. sudo ­‐u hdfs hdfs namenode-­‐format

    2. $ for service in 的/ etc / init.d /的hadoop的* > do > sudo $service stop > done

    3. 启动HDFS

      1. 启动HDFS

        $ for service in /etc/init.d/hadoop-­‐hdfs-­‐* > do > sudo $service start > done

      2. 更改Localhost属性

        5.change localhost属性     http://localhost:50070      通过以上步骤,您可以启动namenode和datanode服务。

相关问题