我正在尝试通过spark dataframe将批量数据插入到Databricks中的Sql server数据仓库。为此,我正在使用具有服务原则的pyodbc模块(而不是通过使用jdbc),.I已经实现了单次插入。我找不到一种方法将批量数据插入到sql server数据warehouse.Can中,有人能帮我找到批量插入数据的方法吗?
发布于 2019-05-09 02:14:01
示例如下:https://docs.databricks.com/spark/latest/data-sources/azure/sql-data-warehouse.html
尽管这倾向于建议您在这两者之间使用blob存储帐户。
您还可以使用标准的SQL接口:https://docs.databricks.com/spark/latest/data-sources/sql-databases.html
但是您不能使用服务主体-您将需要SQL登录。我会将连接字符串作为密钥存储在密钥库中(使用SQL登录)。使用您的服务主体获取密钥,然后使用connetionstring连接到SQL。
发布于 2020-01-22 07:31:52
你可以使用polybase很好地做到这一点,它需要一个位置来存储临时文件:
https://docs.databricks.com/data/data-sources/azure/sql-data-warehouse.html#azure-sql-data-warehouse
https://stackoverflow.com/questions/56045479
复制相似问题