首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Spark集群设置错误

Spark集群设置错误
EN

Stack Overflow用户
提问于 2015-03-02 09:06:20
回答 1查看 672关注 0票数 0

通过互联网上的一些研究,我可以使用

代码语言:javascript
复制
sbin/start-master.sh

在我的Ubuntu Linux计算机上启动spark主服务器spark服务并使用

代码语言:javascript
复制
bin/spark-class org.apache.spark.deploy.worker.Worker spark://...

从节点服务启动并运行。好消息是我可以看到当地的网页,上面有活着的作品。

然而,在这样做之后,我尝试启动shell来工作...

代码语言:javascript
复制
MASTER=spark://localhost:7077 bin/spark-shell

但它返回了:sparkMaster@localhost:7077...

因此我将代码修改为

代码语言:javascript
复制
MASTER=spark://sparkuser@localhost:7077 bin/spark-shell

sparkuser是连接到两个节点的那个,但是,通过这样的修改,我得到:

代码语言:javascript
复制
ERROR SparkDeploySchedulerBackend: Application has been killed. Reason: All masters are unresponsive! Giving up.
WARN SparkDeploySchedulerBackend: Application ID is not initialized yet.
ERROR TaskSchedulerImpl: Exiting due to error from cluster scheduler: All masters are unresponsive! Giving up.

当我试着

代码语言:javascript
复制
MASTER=local-cluster[3,2,1024] bin/spark-shell

它确实在shell中出现了spark徽标,但我担心从节点没有绑定在里面。

我错过了Spark集群设置中的任何东西吗?

EN

回答 1

Stack Overflow用户

发布于 2015-12-29 14:02:40

只需使用--master标志在集群上启动spark-shell,如下所示

代码语言:javascript
复制
       ./spark-shell --master spark://localhost:7077 bin/spark-shell
票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/28801294

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档