在只有一个节点的spark集群上运行shark时,我得到了以下错误。有没有人能解决这个问题……
提前感谢
error::
Executor updated: app-20140619165031-0000/0 is now FAILED (class java.io.IOException: Cannot run program "/home/trendwise/Hadoop_tools/jdk1.7.0_40/bin/java" (in directory "/home/trendwise/Hadoop_tools/spark/spark-0.9.1-bin-hadoop1/work/app-20140619165031-0000/0"): error=2, No such file or directory) 发布于 2014-06-20 23:48:51
在我的经验中,“没有这样的文件或目录”通常是一些其他异常的症状。通常是“设备上没有剩余空间”,有时是“打开的文件太多”。挖掘其他堆栈跟踪的日志,并监视磁盘使用情况和索引节点使用情况以进行确认。
https://stackoverflow.com/questions/24306787
复制相似问题