首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >"compute_cluster_for_hadoop开始“不适用于gcutil1.10.0

"compute_cluster_for_hadoop开始“不适用于gcutil1.10.0
EN

Stack Overflow用户
提问于 2013-10-31 13:34:51
回答 1查看 104关注 0票数 0

更新:它看起来像./__hadoop.py适用于gcutil1.9.1,但不适用于gcutil1.10.0。因此,我真正要问的是如何修复compute_cluster_for_hadoop以使用当前的gcutil。

在使用compute_cluster_for_hadoop.py数周之后,现在启动集群将挂起,即使在我再次设置集群之后也是如此。

以下是我注意到的一些事情。首先,当我运行"compute_cluster_for_hadoop.py start .“时,我得到以下消息:我必须手动输入“是”(在此之前,它不需要任何用户输入)。

寄主'google-compute-engine-instance;project=cspp53013;zone=us-central1-a;instance=hm;id=9724559583598617300 (8.35.196.11)‘的真实性不能确定。ECDSA密钥指纹为02:2b:ea:7d:48:27:7d:1b:e2:2a:d4:44:d0:07:95:b4.您确定要继续连接(是/否)吗?

然后继续进行一段时间。在安装完deb_packages之后,它就会打印以下内容

处理ca证书的触发器.更新/etc/ssl/certs中的证书..。0加0,0移除;完成运行钩子/etc/ca-证书/update.d.好了。好了。

不管我等多久它都会挂。

你知道什么会改变吗?或者怎么解决?

谢谢,

麦克

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2013-11-01 04:41:30

好的。想出了答案。我们只需要加上

-ssh_arg "-o StrictHostKeyChecking=no“

到gce_cluster.py的第151行,它与gcutil-1.9.1和gcutil-1.10.0一起工作。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/19707975

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档