首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >使sbt scala构建文件引入apache

使sbt scala构建文件引入apache
EN

Stack Overflow用户
提问于 2019-08-10 08:12:21
回答 1查看 61关注 0票数 0

我的project目录下有一个scala构建文件,如下所示,但是导入失败了,解决这个问题的惯用方法是什么?scala构建文件仍然是推荐的构建,而不是build.sbt定义吗?官方文件没有提供任何见解。

代码语言:javascript
复制
import sbt.{Def, ExclusionRule, ModuleID}
import sbt.Keys.{dependencyOverrides, libraryDependencies}
import sbt._

object MyBuild {

  lazy val sparkVersion = "2.2.1"

  val commonDependencies: Seq[ModuleID] = Seq()

  val sparkDependencies: Seq[ModuleID] = Seq(
    "org.apache.spark" %% "spark-core" % sparkVersion,
    "org.apache.spark" %% "spark-sql" % sparkVersion,
    "org.apache.hadoop" % "hadoop-common" % sparkVersion sparkVersion,
    "org.apache.spark" %% "spark-hive" % sparkVersion,
    "org.apache.hadoop" % "hadoop-client" % "2.7.2"
  )

  lazy val project = Project("my-project", file("."))
    .settings(
      libraryDependencies ++= sparkDependencies
    )
}

在我的源代码中,我不能:

代码语言:javascript
复制
import org.apache.spark.sql.DataFrame

简单的解决办法是什么?我是否需要指定应该在这里执行我的对象,还是默认情况下就是这样?

build.properties

代码语言:javascript
复制
sbt.version = 0.13.16
EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2019-08-10 22:36:36

您可能希望对构建定义进行以下更改

代码语言:javascript
复制
object MyBuild extends Build {
  ....
}

为了避免这些常见的问题,尝试使用build.sbt方法在SBT中使用构建定义,除非您在构建规范中有很多自定义。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/57440498

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档