首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >无法安装pyspark

无法安装pyspark
EN

Stack Overflow用户
提问于 2018-07-24 21:46:59
回答 6查看 17.4K关注 0票数 15

我正在尝试安装pyspark,如下所示:

代码语言:javascript
复制
python setup.py install

我得到了这个错误:

代码语言:javascript
复制
Could not import pypandoc - required to package PySpark

已经安装了pypandoc

有什么办法可以安装pyspark吗?

EN

回答 6

Stack Overflow用户

发布于 2019-05-23 10:01:18

我遇到了同样的问题,解决方法如下:在安装pyspark之前先安装pypandoc

代码语言:javascript
复制
pip install pypandoc
pip install pyspark
票数 39
EN

Stack Overflow用户

发布于 2019-11-13 17:00:14

尝试在pip3 install pypandoc中安装带有python3的pypandoc。

票数 5
EN

Stack Overflow用户

发布于 2018-08-29 18:55:45

如果您正在使用window,请执行以下步骤:

1)在电脑上安装Jdk链接:https://www.oracle.com/technetwork/java/javase/downloads/index.html

2)设置环境变量$JAVA_HOME= /path/where/you/installed/jdk,然后在PATH=%JAVA_HOME/bin中添加路径

3)从链接下载spark:- https://spark.apache.org/downloads.html此文件以Zip格式解压文件,文件名类似spark-2.3.1-bin-hadoop2.7.tgz,将此文件夹移动到C目录。并设置环境变量

代码语言:javascript
复制
SPARK_HOME=/path/of the /spark 

4)从以下链接下载scala ide :- http://scala-ide.org/解压缩文件并将Eclipse文件夹复制到C:目录

5)现在打开cmd并编写spark-shell,它将为您打开scala shell。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/51500288

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档