首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >导出带有希腊字符的CSV时databricks机制中的问题

导出带有希腊字符的CSV时databricks机制中的问题
EN

Stack Overflow用户
提问于 2019-07-26 16:07:21
回答 1查看 639关注 0票数 0

在azure-databricks​中,我有一个在一些列中包含希腊字符的spark dataframe。当我显示数据帧时,字符显示正确。但是,当我选择从databricks UI下载带有数据帧的csv时,创建的csv文件不包含希腊字符,而是包含奇怪的符号和符号。encoding.Also似乎有问题,我尝试用以下python代码创建csv:

代码语言:javascript
复制
df.write.csv("FileStore/data.csv",header=True)

但是同样的事情也会发生,因为​没有编码选项。似乎我不能选择编码。此外,dataframe保存为一个字符串,行不会被换行符分隔。​是否有解决此问题的方法?谢谢。

EN

回答 1

Stack Overflow用户

发布于 2019-07-26 16:21:59

pyspark支持编码!

例如,当我读取一个文件时:

代码语言:javascript
复制
spark.read.option("delimiter", ";").option("header", "true").option("encoding", "utf-8").csv("xxx/xxx.csv")

现在,您只需为希腊字符选择正确的编码。也有可能的是,无论你用什么控制台/软件来检查你的输入,默认情况下都不会读取utf-8。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/57215732

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档