我是个新手.我已经建立了一个完全分布式的集群spark / scala和sbt。当我测试并发出命令吡火花时,我会得到以下错误:
/home/hadoop/class/bin/ /usr/lib/jvm/java-7-openjdk-amd64/jre/bin/java -class 75行-没有这样的文件或目录
我的bashrc包含:
export JAVA_HOME=/usr/lib/jvm/java-7-openjdk-amd64
hadoop-env.sh contains export JAVA_HOME=/usr/lib/jvm/java7-openjdk-amd64/jre/
conf/spark-env.sh contains JAVA_HOME=usr/lib/jvm/java7-openjdk-amd64/jre
spark-class contains
if [ -n "${JAVA_HOME"}]; then RUNNER="${JAVA_HOME}/bin/java" else if [ "$( command -v java ) " ] then RUNNER = "java"有人能帮助我改变什么才能找到通向java的正确路径吗?
发布于 2017-07-13 00:27:38
我发现这个问题匹配了从.bashrc到etc到spark.conf的所有路径
https://stackoverflow.com/questions/45012189
复制相似问题