我要问的问题已经问过了,但没有人回答。下面是链接:Spark Installation | Unable to start spark slaves - asking password
在我的主计算机(将是主计算机的计算机)中,我已经设置了从文件(它包含工作计算机的ip,即192.168.10.131),我已经设置了火花-env.sh文件(导出SPARK_MASTER_IP=192.168.2.57和其他一些输出,用于从机的核心和内存,仍然在主计算机上)。我还将星星之火-env.sh文件复制到火花/conf目录中的辅助计算机中。我使用ssh-keygen (在我的主计算机上)并使用ssh-copy-id -i ~/.ssh/id_rsa.pub worker@192.168.10.131将适当的文件复制到辅助计算机(我从主计算机执行此命令),现在我可以使用ssh登录到没有密码的辅助计算机。当我最后执行./start-all.sh脚本时,它会启动主脚本,但在启动工作人员时它会询问密码( master@192.168.2.57的密码,注意用户名是主用户名,ip是工人的ip)。我是做错了什么还是做错了什么?
发布于 2015-09-03 11:36:21
这两台电脑都有不同的用户名(主人和工人)。诀窍是使用相同的用户名,即对两个computers.Just使用相同的用户名和密码,在工作计算机上创建一个与主计算机相同的用户。这样,当工作人员要求输入密码时,您只需使用大师的密码登录即可。如果有人有什么要补充的,请做。希望我能帮上忙!
发布于 2017-04-25 08:13:45
您已经将主ip设置为SPARK_MASTER_IP=192.168.2.57,当您说主ip请求密码( master @192.168.2.57)时,您的工作人员ip是192.168.10.131,而不是您所说的工人的ip。很可能您已经将SPARK_LOCAL_IP设置为主ip地址,因此它试图在主计算机中创建一个工作人员。或者,您可能在从文件中以"localhost“或”主服务器的ip“的形式在conf文件夹中具有主ip。希望这能有所帮助。
https://stackoverflow.com/questions/32372362
复制相似问题