首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Spark 2.0缺失的spark暗示

Spark 2.0缺失的spark暗示
EN

Stack Overflow用户
提问于 2016-10-11 08:27:40
回答 2查看 33.6K关注 0票数 32

使用Spark 2.0,我发现可以将row的数据帧转换为case类的数据帧。当我尝试这样做时,我收到一条消息,声明要导入spark.implicits._。我的问题是,Intellij没有认识到这是一个有效的导入语句,我想知道它是否已经移动而消息没有更新,或者如果我的构建设置中没有正确的包,这是我的build.sbt

代码语言:javascript
复制
libraryDependencies ++= Seq(
  "org.mongodb.spark" % "mongo-spark-connector_2.11" % "2.0.0-rc0",
  "org.apache.spark" % "spark-core_2.11" % "2.0.0",
  "org.apache.spark" % "spark-sql_2.11" % "2.0.0"
)
EN

回答 2

Stack Overflow用户

回答已采纳

发布于 2016-10-11 11:59:06

没有名为spark.implicits的包。

这里的spark指的是SparkSession。如果您在REPL中,会话已经被定义为spark,因此您只需输入:

代码语言:javascript
复制
import spark.implicits._

如果您在代码中的某处定义了自己的SparkSession,则相应地调整它:

代码语言:javascript
复制
val mySpark = SparkSession
  .builder()
  .appName("Spark SQL basic example")
  .config("spark.some.config.option", "some-value")
  .getOrCreate()

// For implicit conversions like converting RDDs to DataFrames
import mySpark.implicits._
票数 88
EN

Stack Overflow用户

发布于 2017-06-21 17:45:10

Spark对SparkSession使用了spark标识符。这就是造成混乱的原因。如果你是用这样的东西创建的,

代码语言:javascript
复制
val ss = SparkSession
  .builder()
  .appName("test")
  .master("local[2]")
  .getOrCreate()

导入implicits的正确方法应该是,

代码语言:javascript
复制
import ss.implicits._

如果这有帮助,请告诉我。干杯。

票数 12
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/39968707

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档