我已经导入了所需的包。我甚至可以导入SparkBundleContext
import org.apache.spark.ml.bundle.SparkBundleContext但是当我这样做的时候
val sbc = SparkBundleContext()我得到了这个错误
java.lang.NoClassDefFoundError: org/apache/spark/ml/clustering/GaussianMixtureModel发布于 2017-05-12 05:18:26
如果您使用的是maven,则将apache spark ML依赖项添加为
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.11</artifactId>
<version>2.1.1</version>
</dependency>如果您正在使用SBT,则将依赖项添加为
libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "2.1.1"使用正确的依赖版本,以便它与您的scala版本相匹配。
希望这能有所帮助!
https://stackoverflow.com/questions/43925349
复制相似问题