当从Autoloader流读取的数据源中删除某些文件时,就会发生这种情况。
try:
raw_df = spark.readStream.format("cloudFiles") \
.option("cloudFiles.format","csv") \
.option("cloudFiles.includeExistingFiles", "true") \
.option("cloudFiles.allowOverwrites", "true") \
.option("cloudFiles.schemaLocation",
opPath.outputPath +"/checkpoints/" + storageAccountInfo.adlsContainerName) \
.option("delimiter","\t")\
.load(source)
except Exception as f:
print(f)发布于 2022-03-09 08:27:33
我意识到这是因为一些文件被删除了blob存储,而blob存储是cloudfiles流的来源。
https://stackoverflow.com/questions/69401548
复制相似问题