首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >spark-shell中未加载CSV格式

spark-shell中未加载CSV格式
EN

Stack Overflow用户
提问于 2020-04-29 15:54:59
回答 3查看 266关注 0票数 1

使用spark 1.6,我尝试了以下代码:

代码语言:javascript
复制
val diamonds = spark.read.format("csv").option("header", "true").option("inferSchema", "true").load("/got_own/com_sep_fil.csv")

它导致了这个错误

代码语言:javascript
复制
error: not found: value spark
EN

回答 3

Stack Overflow用户

发布于 2020-04-29 16:06:07

在Spark1.6shell中,您得到类型为SparkContextsc,而不是类型为SparkSessionspark,如果您想获得该功能,则需要实例化SqlContext

代码语言:javascript
复制
import org.apache.spark.sql._
val spark = new SQLContext(sc)
票数 0
EN

Stack Overflow用户

发布于 2020-04-29 22:55:08

sqlContext是一种隐式object SQL contect,可以用来加载csv文件,并使用com.databricks.spark.csv来表示csv文件格式

代码语言:javascript
复制
val df = sqlContext.read.format("csv").option("header", "true").option("inferSchema", "true").load("data.csv")
票数 0
EN

Stack Overflow用户

发布于 2020-04-30 16:28:30

需要使用SQLContext(spark version<2.0)或SparkSession(spark version>=2.0)初始化实例才能使用Spark提供的方法。

要初始化spark版本低于2.0的spark实例,请使用:

代码语言:javascript
复制
import org.apache.spark.sql._
val spark = new SQLContext(sc)

要初始化spark版本>= 2.0的spark实例,请使用:

代码语言:javascript
复制
val spark = new SparkConf().setAppName("SparkSessionExample").setMaster("local")

使用spark1.6和databricks spark-csv包读取csv:val df = sqlContext.read.format("com.databricks.spark.csv").option("header", "true").option("inferSchema", "true").load("data.csv")

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/61496851

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档