火花工人要求密码

时间:2015-09-03 09:50:55

标签: ssh apache-spark

我已经问过我要问的问题,但没有答案。链接在这里: Spark Installation | Unable to start spark slaves - asking password

在我的主计算机(将成为主计算机的计算机)中,我设置了从属文件(包含工作计算机的IP,即192.168.10.131),我已经设置了spark-env.sh文件(导出SPARK_MASTER_IP) = 192.168.2.57以及其他一些针对从站的内核和内存的导出,仍然在主计算机上)。我还将spark-env.sh文件复制到spark / conf目录中的worker计算机。我使用ssh-keygen(在我的主计算机上)并使用ssh-copy-id -i ~/.ssh/id_rsa.pub worker@192.168.10.131将相应的文件复制到工作计算机(我从主计算机执行了此命令),现在我可以使用ssh无需密码登录到工作计算机。当我最终执行./start-all.sh脚本时,它会启动主服务器但在启动工作程序时要求输入密码(密码为master@192.168.2.57,请注意用户名是主服务器用户名,而ip是工作人员的IP)。我做错了什么或其他什么不对吗?

2 个答案:

答案 0 :(得分:2)

嗯,两台计算机都有不同的用户名(主人和工人)。诀窍是为两台计算机使用相同的用户名,即master。只需在工作计算机上创建一个用户名和密码与主计算机相同的用户。这样当工人要求输入密码时,您只需使用主密码登录即可。如果有人要添加,请做。希望我帮忙!!!

答案 1 :(得分:0)

您已将主IP设置为SPARK_MASTER_IP = 192.168.2.57 你的工作人员IP是192.168.10.131 当你说密码为(master@192.168.2.57)时,ip就是主人,而不是你所说的工人的ip。 很可能您已将 SPARK_LOCAL_IP 设置为主人的IP地址,因此它会尝试在主计算机中创建一个工作人员。 或者你可以在位于conf文件夹的 slaves文件中拥有主人的ip,作为" localhost"或掌握主人。 希望这会有所帮助。