我的project目录下有一个scala构建文件,如下所示,但是导入失败了,解决这个问题的惯用方法是什么?scala构建文件仍然是推荐的构建,而不是build.sbt定义吗?官方文件没有提供任何见解。
import sbt.{Def, ExclusionRule, ModuleID}
import sbt.Keys.{dependencyOverrides, libraryDependencies}
import sbt._
object MyBuild {
lazy val sparkVersion = "2.2.1"
val commonDependencies: Seq[ModuleID] = Seq()
val sparkDependencies: Seq[ModuleID] = Seq(
"org.apache.spark" %% "spark-core" % sparkVersion,
"org.apache.spark" %% "spark-sql" % sparkVersion,
"org.apache.hadoop" % "hadoop-common" % sparkVersion sparkVersion,
"org.apache.spark" %% "spark-hive" % sparkVersion,
"org.apache.hadoop" % "hadoop-client" % "2.7.2"
)
lazy val project = Project("my-project", file("."))
.settings(
libraryDependencies ++= sparkDependencies
)
}在我的源代码中,我不能:
import org.apache.spark.sql.DataFrame简单的解决办法是什么?我是否需要指定应该在这里执行我的对象,还是默认情况下就是这样?
build.properties
sbt.version = 0.13.16发布于 2019-08-10 22:36:36
您可能希望对构建定义进行以下更改
object MyBuild extends Build {
....
}为了避免这些常见的问题,尝试使用build.sbt方法在SBT中使用构建定义,除非您在构建规范中有很多自定义。
https://stackoverflow.com/questions/57440498
复制相似问题