有人可以帮助我通过Pyspark读取avro schema (.avsc ),并在将数据帧写入目标存储时强制执行它吗?我所有的targetr表模式都是以.avsc文件的形式提供的,在Pyspark中保存我的数据框架时,我需要提供这个自定义模式。我知道有像databricks的spark-avro这样的库。但是所有的例子都是用Scala给出的。
发布于 2021-03-25 21:57:12
使用此文件/tmp/test.avsc
{
"type": "record",
"namespace": "com.example",
"name": "FullName",
"fields": [
{ "name": "first", "type": "string" },
{ "name": "last", "type": "string" }
]
}像这样的数据帧:
df = spark.createDataFrame([{"first": "john", "last": "parker" }], StructType([StructField("first", StringType()), StructField("last", StringType())]))结果是:
+-----+------+
|first| last|
+-----+------+
| john|parker|
+-----+------+您可以执行以下操作来强制写入架构:
jsonFormatSchema = open("/tmp/test.avsc", "r").read()
df.write.format("avro").options(avroSchema=jsonFormatSchema).save("/tmp/avro")与强制执行读取模式类似:
spark.read.format('avro').options(avroSchema=jsonFormatSchema).load("/tmp/avro")这里提供了更多信息,顺便说一句,这里有足够多的python示例:https://spark.apache.org/docs/latest/sql-data-sources-avro.html
https://stackoverflow.com/questions/66757417
复制相似问题