首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >构建Scala JAR文件火花

构建Scala JAR文件火花
EN

Stack Overflow用户
提问于 2018-03-22 09:30:32
回答 1查看 938关注 0票数 0

我的build.sbt文件有(我在使用IntelliJ)

代码语言:javascript
复制
scalaVersion := "2.11.8"
resolvers  += "MavenRepository" at "http://central.maven.org/maven2"
resolvers += "spark-packages" at "https://dl.bintray.com/spark-packages/maven/"

libraryDependencies ++= {
  val sparkVersion = "2.2.1"
    Seq( "org.apache.spark" %% "spark-core" % sparkVersion )
}

我试着建造一个罐子并把它部署到星火中。我发布了以下命令

代码语言:javascript
复制
sbt compile

sbt assembly

编译成功,但程序集由于以下错误消息而失败

代码语言:javascript
复制
java.lang.RuntimeException: Please add any Spark dependencies by supplying the sparkVersion and sparkComponents. Please remove: org.apache.spark:spark-core:2.2.1

我试图添加"provided"以避免时间编译本身失败,因为"provided"关键字不包括那些JAR

我犯了什么错?

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2018-03-22 09:35:23

您首先需要为程序集添加插件和依赖项,这将为您创建jar。

在plugins.sbt中

代码语言:javascript
复制
addSbtPlugin("com.eed3si9n" % "sbt-assembly" % "0.14.5")

将此添加到您的build.sbt

代码语言:javascript
复制
mainClass := Some("name of jar")
assemblyMergeStrategy in assembly := {
  case PathList("META-INF", xs @ _*) => MergeStrategy.discard
  case x => MergeStrategy.first
}

您可以引用我的github来创建jar并部署

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/49424957

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档