首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >z:net.snowflake.spark.snowflake.Utils.runQuery.:java.lang.NullPointerException

z:net.snowflake.spark.snowflake.Utils.runQuery.:java.lang.NullPointerException
EN

Stack Overflow用户
提问于 2020-03-20 04:55:40
回答 2查看 1.4K关注 0票数 1

根据我的用例,我试图将数据从s3写入雪花。我的应用程序是用Python/Pyspark编写的,并且运行在AWS集群上。

守则是:

代码语言:javascript
复制
def write_from_audience_parquet_to_snowflake(self):
    self.logger.info('write_from_audience_parquet_to_snowflake started')

    path = os.path.dirname(os.path.abspath(__file__))
    parquet_stage = read_template(path + '/sql/staging_audience_attribute.sql')
    input_base_s3 = self.base_input_s3_path.replace("s3a://", "s3://")

    self.logger.info("input_base_s3 = {}".format(input_base_s3))

    parquet_stage = parquet_stage.render(input_base_s3=input_base_s3, mab_id=self.mab_id,
                                         mab_send_id=self.mab_send_id, access_key=self.aws_access_key,
                                         secret_key=self.aws_secret_key, session_token=self.aws_session_key)

    create_table_template = read_template(path + '/sql/create_audience_table.sql')
    create_table_sql = create_table_template.render(audience_table=self.audience_table)

    upload_stage = read_template(path + '/sql/upload_audience_stage.sql')
    upload_stage = upload_stage.render(audience_table=self.audience_table)

    try:
        self.utilSf.runQuery(self.sfoptions, parquet_stage)
        self.utilSf.runQuery(self.sfoptions, create_table_sql)
        self.utilSf.runQuery(self.sfoptions, upload_stage)
    except Exception as e:
        self.logger.exception(e)
        raise e

    self.logger.info('write_from_audience_parquet_to_snowflake completed successfully')

错误是:

代码语言:javascript
复制
An error occurred while calling z:net.snowflake.spark.snowflake.Utils.runQuery.
: java.lang.NullPointerException
    at java.util.Hashtable.put(Hashtable.java:460)
    at net.snowflake.spark.snowflake.JDBCWrapper.getConnector(SnowflakeJDBCWrapper.scala:141)
    at net.snowflake.spark.snowflake.Utils$.getJDBCConnection(Utils.scala:244)
    at net.snowflake.spark.snowflake.Utils$.getJDBCConnection(Utils.scala:249)
    at net.snowflake.spark.snowflake.Utils$.runQuery(Utils.scala:391)
    at net.snowflake.spark.snowflake.Utils.runQuery(Utils.scala)
    at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
    at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
    at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
    at java.lang.reflect.Method.invoke(Method.java:498)
    at py4j.reflection.MethodInvoker.invoke(MethodInvoker.java:244)
    at py4j.reflection.ReflectionEngine.invoke(ReflectionEngine.java:357)
    at py4j.Gateway.invoke(Gateway.java:282)
    at py4j.commands.AbstractCommand.invokeMethod(AbstractCommand.java:132)
    at py4j.commands.CallCommand.execute(CallCommand.java:79)
    at py4j.GatewayConnection.run(GatewayConnection.java:238)
    at java.lang.Thread.run(Thread.java:748)

请查找完整的错误日志这里

我读过这样的文章,这是因为spark提供的scala版本控制问题。我使用spark 2.4.5和外部添加的Hadoop3.1.2。另外,我用的是这些雪花罐:

火花-雪花_2.11-2.4.10-火花_2.4.jar snowflake-ingest-sdk-0.9.5.jar snowflake-jdbc-3.6.15.jar

如果需要更多的细节,请通过评论让我知道。

EN

回答 2

Stack Overflow用户

发布于 2020-03-20 22:32:03

当它试图连接到雪花时,会发生错误。我建议检查"self.sfoptions“中的值,以确保正确地指定了所有必需的选项。以下是一个例子:

代码语言:javascript
复制
sfOptions = {
  "sfURL" : "<account_name>.<cloud_domain>",
  "sfAccount" : "<account_name>",
  "sfUser" : "<user_name>",
  "sfPassword" : "<password>",
  "sfDatabase" : "<database>",
  "sfSchema" : "<schema>",
  "sfWarehouse" : "<warehouse>",
}
票数 1
EN

Stack Overflow用户

发布于 2020-03-22 11:40:24

现在看来,您使用的是雪花火花连接器和JDBC驱动程序的旧版本。请用最新的雪花火花连接器(2.7.0-Spark2.4)和JDBC驱动程序(3.12.2)进行测试。

2.11%22

https://repo1.maven.org/maven2/net/snowflake/snowflake-jdbc/3.12.2/

如果您能够重现最新的连接器和驱动程序的问题,那么请用日志打开一个案例。谢谢!

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/60768759

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档