首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >远程连接到Spark集群

远程连接到Spark集群
EN

Stack Overflow用户
提问于 2016-12-01 01:47:26
回答 1查看 1.1K关注 0票数 3

我正在尝试使用Java程序从本地系统连接到spark主节点(远程集群节点)。我正在使用以下接口进行连接:

代码语言:javascript
复制
    SparkConf conf = new SparkConf().setAppName("WorkCountApp").setMaster("spark://masterIP:7077");
 JavaSparkContext sc = new JavaSparkContext(conf);

我的程序尝试连接到主服务器,但在一段时间后失败。下面是堆栈跟踪:

代码语言:javascript
复制
  16/11/30 17:40:26 INFO AppClient$ClientActor: Connecting to master akka.tcp://sparkMaster@ec2-54-202-212-141.us-west-2.compute.amazonaws.com:7077/user/Master...
    16/11/30 17:40:46 ERROR SparkDeploySchedulerBackend: Application has been killed. Reason: All masters are unresponsive! Giving up.
    16/11/30 17:40:46 WARN SparkDeploySchedulerBackend: Application ID is not initialized yet.
    16/11/30 17:40:46 INFO SparkUI: Stopped Spark web UI at http://172.31.11.1:4040
    16/11/30 17:40:46 INFO DAGScheduler: Stopping DAGScheduler
    16/11/30 17:40:46 INFO SparkDeploySchedulerBackend: Shutting down all executors
    16/11/30 17:40:46 INFO SparkDeploySchedulerBackend: Asking each executor to shut down
    16/11/30 17:40:46 ERROR OneForOneStrategy: 
    java.lang.NullPointerException
java.lang.IllegalStateException: Cannot call methods on a stopped SparkContext
    at org.apache.spark.SparkContext.org$apache$spark$SparkContext$$assertNotStopped(SparkContext.scala:103)

请帮我做同样的事

EN

回答 1

Stack Overflow用户

发布于 2017-09-25 12:12:22

连接失败的原因有很多。然而,对于这一点,看起来似乎没有为此Spark master实例化的工作线程。

在远程机器上,您需要启动spark master和spark worker (从)。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/40894944

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档