首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >如何在spark jar中使用dbutils.secrets

如何在spark jar中使用dbutils.secrets
EN

Stack Overflow用户
提问于 2019-02-07 17:01:03
回答 2查看 1.9K关注 0票数 0

因此,我目前正在尝试为我的Databricks开发环境设置秘密。我已经使用Databricks-cli成功地设置了它们。我现在正尝试在我的spark jar (用scala编写)中使用它们。然而,它需要在本地编译,并在ci/cd管道中进行编译,才能被实时推送。

但是,我找不到dbutils位于哪个包中。

... = dbutils.secrets.get(scope = "SCOPE", key = "VARIABLE")

这是我正在尝试实现的用例,如果有任何帮助,我将不胜感激!

EN

回答 2

Stack Overflow用户

发布于 2019-03-28 00:44:48

你试过com.databricks.dbutils_v1.DBUtilsHolder.dbutils吗?我的SBT构建有一个似乎可以拉入dbutils"com.databricks" %% "dbutils-api" % "0.0.3"依赖项。

票数 2
EN

Stack Overflow用户

发布于 2019-02-08 07:45:48

在Databricks中,当您的jar包含一个业务逻辑时,每个作业都是从一个notebook开始的,应该将其定义为一个附加到集群的库。

启动notebook通常使用dbutils处理所有外部参数,然后调用业务逻辑代码,将密码、连接字符串等作为参数传递给函数。

所有密钥仅存储在KeyVault中。在这里你可以找到how to integrate Databricks secret scopes with KeyVault

要在本地运行代码,请使用Azure CLI从KeyVault检索密码,并在每次运行之前将其分配给环境变量作为准备步骤。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/54569620

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档