我正在从Impala迁移到SparkSQL,使用以下代码读取表:
my_data = sqlContext.read.parquet('hdfs://my_hdfs_path/my_db.db/my_table')如何调用上面的SparkSQL,这样它就可以返回如下内容:
'select col_A, col_B from my_table'发布于 2016-12-21 02:14:28
在从parquet文件中创建Dataframe之后,您必须将其注册为临时表才能在其上运行sql queries。
val sqlContext = new org.apache.spark.sql.SQLContext(sc)
val df = sqlContext.read.parquet("src/main/resources/peopleTwo.parquet")
df.printSchema
// after registering as a table you will be able to run sql queries
df.registerTempTable("people")
sqlContext.sql("select * from people").collect.foreach(println)发布于 2017-03-09 06:30:33
使用普通SQL
JSON、ORC、Parquet和CSV文件可以被查询为,而无需在DataFrame上创建表。
//This Spark 2.x code you can do the same on sqlContext as well
val spark: SparkSession = SparkSession.builder.master("set_the_master").getOrCreate
spark.sql("select col_A, col_B from parquet.`hdfs://my_hdfs_path/my_db.db/my_table`")
.show()发布于 2020-02-09 19:21:28
假设您有HDFS中的拼花文件ventas4:
hdfs://localhost:9000/sistgestion/sql/ventas4 4
在这种情况下,步骤如下:
https://stackoverflow.com/questions/41254011
复制相似问题