首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >设置PySpark

设置PySpark
EN

Stack Overflow用户
提问于 2016-04-18 05:42:47
回答 2查看 944关注 0票数 2

我已经安装了Scala和Spark,并且可以正常工作,但是PySpark不工作。下面是我得到的输出:

代码语言:javascript
复制
user@ubuntu:~/spark$ pyspark 
Python 2.7.6 (default, Jun 22 2015, 17:58:13) 
[GCC 4.8.2] on linux2
Type "help", "copyright", "credits" or "license" for more information.
Traceback (most recent call last):
  File "/home/user/spark/python/pyspark/shell.py", line 30, in <module>
    import pyspark
  File "pyspark.py", line 1, in <module>
NameError: name 'sc' is not defined

这是我的.bashrc

代码语言:javascript
复制
export SPARK_HOME=/home/user/spark
export PATH=$PATH:$SPARK_HOME/bin:$PATH
export PYTHONPATH=$SPARK_HOME/python/:$PYTHONPATH
export PYTHONPATH=$SPARK_HOME/python/lib/py4j-0.9-src.zip:$PYTHONPATH

我做错了什么?

谢谢

EN

回答 2

Stack Overflow用户

发布于 2016-04-18 06:20:22

看起来你有一个导入冲突。在path中的某个位置,有一个在实际pyspark包之前选择的pyspark.py文件。

票数 2
EN

Stack Overflow用户

发布于 2016-04-29 14:37:43

我无法重现这个问题,但仍然不明白为什么需要设置SPARK_HOME、PATH和PYTHONPATH。如果pyspark以path开头,那么SparkContext应该已经创建好了。

如果您从ipython或python开始,您可以使用findspark包来定位Spark并创建SparkContext

代码语言:javascript
复制
$ python
>>> import findspark
>>> findspark.init('/home/user/spark')
>>> from pyspark import SparkContext
>>> sc = SparkContext('local[4]', 'myapp')
票数 2
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/36682553

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档