我已经使用spark-thriftserver connection将表从PostgreSQL数据库导入到spark-sql中,现在我可以从直线上看到这些表。
有没有办法把这些表格转换成spark数据帧?
发布于 2017-01-03 21:40:45
这适用于Spark > 2.0:df = spark.table('table')
发布于 2016-09-25 14:43:05
spark 2.0.0 http://spark.apache.org/docs/latest/sql-programming-guide.html
SparkSession上的sql函数使应用程序能够以编程方式运行SQL查询,并以DataFrame形式返回结果。
# spark is an existing SparkSession
df = spark.sql("SELECT * FROM table")spark 1.6.2 http://spark.apache.org/docs/1.6.2/sql-programming-guide.html
以编程方式运行SQL查询
SQLContext上的sql函数使应用程序能够以编程方式运行SQL查询,并以DataFrame形式返回结果。
from pyspark.sql import SQLContext
sqlContext = SQLContext(sc)
df = sqlContext.sql("SELECT * FROM table")发布于 2019-11-02 18:30:20
这更简单(spark2.4):
df = spark.table('your_table')
display(df)https://stackoverflow.com/questions/39681926
复制相似问题