Hadoop多节点配置:主节点无法启动从站中的数据节点

时间:2016-02-22 10:29:54

标签: hadoop installation

在下面的示例中,saturn是主节点,pluto是从节点。

hadoop@saturn:~$ start-dfs.sh
16/02/22 15:51:34 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Starting namenodes on [saturn]
hadoop@saturn's password:
saturn: starting namenode, logging to /usr/local/hadoop/logs/hadoop-hadoop-namenode-saturn.out
hadoop@saturn's password: pluto: starting datanode, logging to /usr/local/hadoop/logs/hadoop-hadoop-datanode-pluto.out

在最后一条指令被绞死。

我很困惑为什么会这样发生。

更新:早些时候我在usr / local / hadoop / slaves文件中都有土星和pluto但是当我把它改成pluto时它才运行。但是现在datanode没有在slave / pluto节点中启动。

根据@running的要求:

/usr/local/hadoop/logs/hadoop-hadoop-datanode-pluto.out的日志

ulimit -a for user hadoop 核心文件大小(块,-c)0 数据seg大小(kbytes,-d)无限制 调度优先级(-e)0 文件大小(块,-f)无限制 待处理信号(-i)15838 最大锁定内存(kbytes,-l)64 最大内存大小(千字节,-m)无限制 打开文件(-n)1024 管道大小(512字节,-p)8 POSIX消息队列(字节,-q)819200 实时优先级(-r)0 堆栈大小(千字节,-s)8192 cpu时间(秒,-t)无限制 最大用户进程(-u)15838 虚拟内存(kbytes,-v)无限制 文件锁(-x)无限

/usr/local/hadoop/logs/hadoop-hadoop-namenode-saturn.out

的日志

ulimit -a for user hadoop 核心文件大小(块,-c)0 数据seg大小(kbytes,-d)无限制 调度优先级(-e)0 文件大小(块,-f)无限制 待处理信号(-i)1031371 最大锁定内存(kbytes,-l)64 最大内存大小(千字节,-m)无限制 打开文件(-n)1024 管道大小(512字节,-p)8 POSIX消息队列(字节,-q)819200 实时优先级(-r)0 堆栈大小(千字节,-s)8192 cpu时间(秒,-t)无限制 最大用户进程(-u)1031371 虚拟内存(kbytes,-v)无限制 文件锁(-x)无限

(我很抱歉格式化)

1 个答案:

答案 0 :(得分:0)

之所以发生这种情况,是因为这两个文件没有所需的写入权限。 所以我做了chown和chmod到/ usr / local /并且它有效。