首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >在Scala-Spark中读取Hive表中的行并写入文件

在Scala-Spark中读取Hive表中的行并写入文件
EN

Stack Overflow用户
提问于 2017-11-21 10:48:26
回答 1查看 730关注 0票数 1

我想从spark-scala program.After中读取其中一个hive表中的数据行,相同的数据需要逐行写入文件。实际上是逐行写入文件。有没有人能分享一下点子呢?Spark版本1.6,Hive1.2。

EN

回答 1

Stack Overflow用户

发布于 2017-11-21 11:16:58

你可以像这样从表中读出...

代码语言:javascript
复制
val mydf = hiveContext.sql("select * from hive_table_name")

mydf.write.save.format("com.databricks.spark.csv").option("header", "true").save(hdfs_path_to_save)

以下是Spark 2.0 https://github.com/databricks/spark-csv之前所需的csv解析器的帮助

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/47404387

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档