首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >IntelliJ Idea 2016.2.4无法解析符号spark_2.11

IntelliJ Idea 2016.2.4无法解析符号spark_2.11
EN

Stack Overflow用户
提问于 2016-10-22 03:14:02
回答 1查看 3K关注 0票数 1

我在Apache-Spark2.11的build.sbt文件中创建了下面的依赖项。

代码语言:javascript
复制
name := "Project1"

version := "1.0"

scalaVersion := "2.11.8"

libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "2.0.1"

libraryDependencies ++= Seq(
 "org.scala-lang" % "scala-compiler" % "2.11.8",
"org.scala-lang" % "scala-reflect" % "2.11.8",
"org.scala-lang.modules" % "scala-parser-combinators_2.11" % "1.0.4",
  "org.scala-lang.modules" % "scala-xml_2.11" % "1.0.4"
)

但是Intellij无法解决spark-core_2.11依赖。我试了好几次,但都没有成功。提前谢谢。

EN

回答 1

Stack Overflow用户

发布于 2017-02-24 12:21:47

在IntelliJ 2016.3.2中,我也遇到了几乎相同的Scala/Spark版本的问题:

代码语言:javascript
复制
name := "some-project"

version := "1.0"

scalaVersion := "2.11.8"

libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "2.1.0"

为了使它正常工作,我必须手动将火花核心jar添加到我的项目库中,即:

  • 右键单击项目->打开模块设置
  • 在项目设置->库下单击+并选择'Java‘选项。
  • 浏览这个罐子。我在我的常春藤缓存中找到了它--我想是因为我之前在sbt控制台上运行了“update”任务。
票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/40187945

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档