我已经安装了hadoop on ubuntu on virtual box(host os Windows7).I还安装了Apache spark,在.bashrc中配置了SPARK_HOME,并将HADOOP_CONF_DIR添加到了spark-env.sh中。现在,当我启动spark-shell时,它抛出了错误,并且没有初始化spark context,sql context。我是不是在安装中遗漏了什么,而且我想在集群上运行它(设置了Hadoop3节点集群)。
发布于 2019-05-26 23:29:24
当我尝试在Windows 7上安装Spark local时也遇到了同样的问题。请确保以下路径正确无误,我确信我将与您一起工作。我在这个link中回答了同样的问题,所以,你可以遵循下面的步骤,它会起作用的。
现在您可以运行cmd并编写spark-shell,它将会工作。
https://stackoverflow.com/questions/38578099
复制相似问题