首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >spark-submit提供NullPointerException

spark-submit提供NullPointerException
EN

Stack Overflow用户
提问于 2015-10-03 03:11:54
回答 1查看 209关注 0票数 0

我想创建一个简单的python脚本。当我用pyspark shell编写代码时,它工作得很好。但是当我尝试使用spark-submit时,如下所示:

代码语言:javascript
复制
from pyspark import SparkConf, SparkContext
conf = SparkConf()
sc = SparkContext(conf=conf)

这是我收到的错误消息。我正在使用Anaconda python,还需要做其他设置吗?谢谢

EN

回答 1

Stack Overflow用户

发布于 2015-10-03 05:49:04

您应该指定主地址,如下所示:

代码语言:javascript
复制
SparkConf().setMaster("local[4]")

此外,当您使用spark-submit脚本时,请确保您的Spark集群已启动并正在运行,同时还要确保防火墙没有阻止您的集群节点通信,因为通信发生在大约27231的端口。

试一试,祝你好运。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/32914248

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档