每次启动hadoop时都需要密码

时间:2016-06-17 23:30:41

标签: hadoop

我在Ubuntu服务器上安装了Hadoop 2.6.4,并且我使用SSH从我的Mac登录Ubuntu服务器,因为rsa密钥用于登录,所以我不必输入任何密码。但是当我运行start_dfs.sh来启动服务器时,我必须输入每个服务的密码,如下所示:

jianrui@cloudfoundry:~$ start-dfs.sh
Starting namenodes on [localhost]
Password: 
localhost: starting namenode, logging to /home/jianrui/hadoop-2.6.4/logs/hadoop-dingjianrui-namenode-cloudfoundry.out
Password: 
localhost: starting datanode, logging to /home/jianrui/hadoop-2.6.4/logs/hadoop-dingjianrui-datanode-cloudfoundry.out
Starting secondary namenodes [0.0.0.0]
Password: 
0.0.0.0: starting secondarynamenode, logging to /home/jianrui/hadoop-2.6.4/logs/hadoop-dingjianrui-secondarynamenode-cloudfoundry.out
dingjianrui@cloudfoundry:~$ 

2 个答案:

答案 0 :(得分:0)

我可以使用以下命令解决问题。

以下命令用于使用SSH生成密钥值对。将公钥表单id_rsa.pub复制到authorized_keys,并分别为ownerdkeys文件提供读写权限。

$ ssh-keygen -t rsa 
$ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys 
$ chmod 0600 ~/.ssh/authorized_keys 

答案 1 :(得分:0)

如果你尝试了所有这些,你就不会成功。

请尝试以下。

$ ssh-keygen -t rsa -P""

$ ssh-copy-id -i~ / .ssh / id_rsa [id] @ [domain]

我使用的是Redhat7

如果您可以使用IP地址而不是域名。 和 您想轻松使用域名。 编辑/ etc / hosts文件。 离> 192.168.0.11 cluster01

问题是如何将密钥文件复制到另一台机器。 我很容易成功。

相关问题