首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >如何导入spark.jobserver.SparkSessionJob

如何导入spark.jobserver.SparkSessionJob
EN

Stack Overflow用户
提问于 2019-06-18 23:49:53
回答 1查看 149关注 0票数 0

我已经通过添加以下命令在build.sbt中添加了作业服务器0.9.0依赖项

代码语言:javascript
复制
scalaVersion := "2.11.0"
resolvers += "Job Server Bintray" at "https://dl.bintray.com/spark-jobserver/maven"
libraryDependencies ++= Seq(
"spark.jobserver" %% "job-server-api" % "0.9.0",
"org.apache.spark" %% "spark-core" % "2.3.2",
"org.apache.spark" %% "spark-sql" % "2.3.2",
)

但是,当我尝试像这样测试代码时(从https://github.com/spark-jobserver/spark-jobserver#new-sparkjob-api-with-spark-v21复制):

代码语言:javascript
复制
import com.typesafe.config.Config
import org.apache.spark.sql.SparkSession
import org.scalactic._
import spark.jobserver.api.{JobEnvironment, SingleProblem, ValidationProblem}
import spark.jobserver.SparkSessionJob
import scala.util.Try
object WordCountExampleSparkSession extends SparkSessionJob {
  type JobData = Seq[String]
  type JobOutput = collection.Map[String, Long]
  override def runJob(sparkSession: SparkSession, runtime: JobEnvironment, data: JobData): JobOutput =
sparkSession.sparkContext.parallelize(data).countByValue

  override def validate(sparkSession: SparkSession, runtime: JobEnvironment, config: Config): JobData Or Every[ValidationProblem] = {
Try(config.getString("input.string").split(" ").toSeq)
  .map(words => Good(words))
  .getOrElse(Bad(One(SingleProblem("No input.string param"))))
  }
}

IntelliJ显示错误:“Can‘t resolve symbol 'SparkSessionJob'”,jar文件如下所示:enter image description here

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2019-06-19 00:14:38

我发现,sparkSessionJob位于job-server-extras中,所以我只需添加

代码语言:javascript
复制
libraryDependencies += "spark.jobserver" %% "job-server-api" % "0.9.0"
票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/56652844

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档