首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >将SparkR连接到spark集群

将SparkR连接到spark集群
EN

Stack Overflow用户
提问于 2015-07-24 22:26:37
回答 1查看 1.7K关注 0票数 0

我有一个spark集群,运行在10台机器(1 - 10)上,主机在机器1上。所有这些都运行在CentOS 6.4上。

我正在尝试使用sparkR将jupyterhub安装(由于在CentOS上安装时出现问题而在ubuntu docker中运行)连接到集群,并获取spark上下文。

我使用的代码是

代码语言:javascript
复制
Sys.setenv(SPARK_HOME="/usr/local/spark-1.4.1-bin-hadoop2.4") 
library(SparkR)
sc <- sparkR.init(master="spark://<master-ip>:7077")

我得到的输出是

代码语言:javascript
复制
attaching package: ‘SparkR’
The following object is masked from ‘package:stats’:
filter
The following objects are masked from ‘package:base’:
intersect, sample, table
Launching java with spark-submit command spark-submit sparkr-shell/tmp/Rtmpzo6esw/backend_port29e74b83c7b3 Error in sparkR.init(master = "spark://10.10.5.51:7077"): JVM is not ready after 10 seconds

Error in sparkRSQL.init(sc): object 'sc' not found

我使用的是Spark 1.4.1。spark集群也在运行CDH 5。

jupyterhub安装可以通过pyspark连接到集群,我有使用pyspark的python笔记本。

谁能告诉我我哪里做错了?

EN

回答 1

Stack Overflow用户

发布于 2015-07-28 16:10:22

我也有类似的问题,到处都在搜索,但没有解决方案。你能告诉我你所说的"jupyterhub安装(由于在CentOS上安装出现问题而在ubuntu docker中运行)“是什么意思吗?

我们在CentOS 6.4上也有4个集群。我的另一个问题是,如何使用像IPython或RStudio这样的集成开发环境来与这4个服务器进行交互?我是否使用我的笔记本电脑远程连接到这些服务器(如果是,则如何连接?)如果不是,那么另一种解决方案是什么?

现在回答你的问题,我可以试一试。我认为你必须使用-- here -cluster选项,我希望这能帮助你解决这个问题。

干杯,阿希什

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/31613117

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档