我正在尝试安装pyspark,如下所示:
python setup.py install我得到了这个错误:
Could not import pypandoc - required to package PySpark已经安装了pypandoc
有什么办法可以安装pyspark吗?
发布于 2019-05-23 10:01:18
我遇到了同样的问题,解决方法如下:在安装pyspark之前先安装pypandoc
pip install pypandoc
pip install pyspark发布于 2019-11-13 17:00:14
尝试在pip3 install pypandoc中安装带有python3的pypandoc。
发布于 2018-08-29 18:55:45
如果您正在使用window,请执行以下步骤:
1)在电脑上安装Jdk链接:https://www.oracle.com/technetwork/java/javase/downloads/index.html
2)设置环境变量$JAVA_HOME= /path/where/you/installed/jdk,然后在PATH=%JAVA_HOME/bin中添加路径
3)从链接下载spark:- https://spark.apache.org/downloads.html此文件以Zip格式解压文件,文件名类似spark-2.3.1-bin-hadoop2.7.tgz,将此文件夹移动到C目录。并设置环境变量
SPARK_HOME=/path/of the /spark 4)从以下链接下载scala ide :- http://scala-ide.org/解压缩文件并将Eclipse文件夹复制到C:目录
5)现在打开cmd并编写spark-shell,它将为您打开scala shell。
https://stackoverflow.com/questions/51500288
复制相似问题