我使用的是spark 1.4.0
当我尝试使用以下命令导入spark.implicits时:import spark.implicits._,出现以下错误:
<console>:19: error: not found: value spark
import spark.implicits._
^有人能帮我解决这个问题吗?
发布于 2017-06-29 23:25:04
这是因为在Spark 2.0中SparkSession是可用的,并且Spark REPL中的spark值是一个SparkSession类型的对象。
在Spark 1.4中使用
import sqlContext.implicits._在Spark 1.x的Spark REPL中自动创建值sqlContext
发布于 2019-03-11 10:56:40
要使其完整,首先必须创建一个sqlContext
import org.apache.spark.{SparkConf, SparkContext}
import org.apache.spark.sql.SQLContext
val conf = new SparkConf().setMaster("local").setAppName("my app")
val sc = new SparkContext(conf)
val sqlContext = new SQLContext(sc)
import sqlContext.implicits._https://stackoverflow.com/questions/44829141
复制相似问题