谁能解释一下什么时候使用Spark sql (普通sql查询)和Spark Data Frame方法.I看,我们可以用spark sql做每一个操作。哪个在性能上更好
发布于 2021-08-29 13:04:25
它们的性能都是一样的。
使用dataframe APIs可以保证类型安全,并且可以由SQL引擎/查询构建器进一步优化。
发布于 2021-08-29 15:26:20
从使用的角度来看,在Spark SQL中直到运行时才能捕获语法错误,而使用Dataframe API我们可以在编译时捕获这些错误。
https://stackoverflow.com/questions/68973164
复制相似问题