首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >安装PySpark

安装PySpark
EN

Stack Overflow用户
提问于 2014-08-19 01:41:56
回答 2查看 18.4K关注 0票数 10

我正在尝试安装PySpark,并遵循instructions,并从安装了Spark的群集节点上的命令行运行此命令:

代码语言:javascript
复制
$ sbt/sbt assembly

这会产生以下错误:

代码语言:javascript
复制
-bash: sbt/sbt: No such file or directory

我尝试下一条命令:

代码语言:javascript
复制
$ ./bin/pyspark

我得到了这个错误:

代码语言:javascript
复制
-bash: ./bin/pyspark: No such file or directory

我觉得我错过了一些基本的东西。遗漏了什么?我已经安装了spark,并且可以使用以下命令访问它:

代码语言:javascript
复制
$ spark-shell

我在节点上安装了python,可以使用以下命令打开python:

代码语言:javascript
复制
$ python
EN

回答 2

Stack Overflow用户

回答已采纳

发布于 2014-08-19 01:57:24

您当前的工作目录是什么?sbt/sbt./bin/pyspark命令是相对于包含Spark代码的目录($SPARK_HOME)的,所以当运行这些命令时,您应该在该目录中。

请注意,Spark提供了与许多常见Hadoop发行版兼容的pre-built binary distributions;如果您正在使用这些发行版之一,这可能是一个更容易的选择。

此外,看起来您链接到了Spark 0.9.0文档;如果您正在从头开始构建Spark,我建议您遵循latest version of the documentation

票数 8
EN

Stack Overflow用户

发布于 2016-08-09 01:37:49

SBT用于构建Scala项目。如果您是Scala/SBT/Spark的新手,那么您正在以一种困难的方式来做事情。

“安装”Spark最简单的方法就是下载Spark (我推荐Spark 1.6.1 --个人偏好)。然后将文件解压缩到您想要“安装”Spark的目录中,比如C:/spark-folder (Windows)或/home/usr/local/spark-folder (Ubuntu)。

将其安装到所需目录后,需要设置环境变量。这取决于您的操作系统;但是,这一步不是运行Spark所必需的(即pyspark)。

如果您没有设置环境变量,或者不知道如何设置,另一种方法是在终端窗口中进入您的目录,cd C:/spark-folder (Windows)或cd /home/usr/local/spark-folder (Ubuntu),然后输入

代码语言:javascript
复制
./bin/pyspark

斯帕克应该跑起来。

票数 2
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/25369051

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档