首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >将pyspark数据帧写入snowflake表时出错[snowflake-cloud-data-platform]

将pyspark数据帧写入snowflake表时出错[snowflake-cloud-data-platform]
EN

Stack Overflow用户
提问于 2020-08-08 05:10:25
回答 1查看 142关注 0票数 0

我正在使用pyspark从snowflake读取数据。我在上面做了一些转换。我现在正在尝试将转换后的数据写回snowflake,但在尝试这样做时遇到了一些错误。我在这方面找不到太多的文档。如果你已经克服了这个问题,请分享我错过的东西。提前谢谢。

代码语言:javascript
复制
pyspark --> 2.3.2
python --> 3.6
snowflake spark connector --> spark-snowflake_2.11-2.7.0-spark_2.4.jar
snowflake jdbc --> snowflake-jdbc-3.12.9.jar

注意:我使用的用户与创建DB,Schema,表的角色相同。系统管理员

代码语言:javascript
复制
    # set options for write:
    sfOptionswrite = {
    "sfURL" : "xxxxxxx.us-east-1.snowflakecomputing.com",
    "sfUser" : "xxxxx",
    "sfPassword" : getpass.getpass(prompt='Enter your password: '),
    "sfDatabase" : "DB",
    "sfSchema" : "SCHEMA",
    "sfWarehouse" : "WH_NAME",
    "sfRole" : "SYSADMIN"
    }
    
    # write transformed dataframe df to snowflake:
    
    df.write.format('net.snowflake.spark.snowflake')\
    .options(**sfOptionswrite)\
    .option('dbtable', 'TABLE_NM')\
    .mode('overwrite')\
    .save()

错误:

原因: net.snowflake.spark.snowflake.io.InternalS3Storage;:java.io.InvalidClassException本地类不兼容:流类serialVersionUID = -7958783596366368645,本地类serialVersionUID = -6090755107217034776

EN

回答 1

Stack Overflow用户

发布于 2020-08-08 05:42:47

你是如何调用你的spark代码的?你在使用spark-submit吗?另外,你有所有需要的包吗?

这也可能是不兼容的jars。

如果有帮助,请检查下面的链接?

https://community.snowflake.com/s/question/0D50Z00007b2iXx/spark-connector-error-dfshow-

请让我知道。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/63309185

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档