首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Databricks:将数据帧合并到sql数据仓库表中

Databricks:将数据帧合并到sql数据仓库表中
EN

Stack Overflow用户
提问于 2019-10-06 17:13:03
回答 3查看 597关注 0票数 1

有没有什么方法可以把数据插入到SQL数据仓库表中?假设我有一个Azure SQL数据仓库表: col1 col2 col3 2019 09 10 2019 10 15

我有一个dataframe col1 col2 col3 2019 10 20 2019 11 30

然后合并到Azure数据仓库表的原始表中

col1 col2 col3 2019 09 10 2019 10 20 2019 11 30

感谢大家的点子

EN

回答 3

Stack Overflow用户

发布于 2019-10-09 09:40:53

问得好。我需要在几天内做同样的事情;只需要先完成一件初步的事情。尝试下面的概念,看看它是否适用于你。

写入Azure SQL数据库或SQL Server:

代码语言:javascript
复制
import com.microsoft.azure.sqldb.spark.config.Config
import com.microsoft.azure.sqldb.spark.connect._

// Aquire a DataFrame collection (val collection)

val config = Config(Map(
  "url"          -> "mysqlserver.database.windows.net",
  "databaseName" -> "MyDatabase",
  "dbTable"      -> "dbo.Clients",
  "user"         -> "username",
  "password"     -> "xxxxxxxx"
))

import org.apache.spark.sql.SaveMode

collection.write.mode(SaveMode.Append).sqlDB(config)

请给我反馈,让我知道它是否适合你。我必须马上做这件事。

https://docs.databricks.com/data/data-sources/sql-databases-azure.html

https://docs.microsoft.com/en-us/azure/hdinsight/spark/apache-spark-connect-to-sql-database

票数 0
EN

Stack Overflow用户

发布于 2019-10-09 21:30:14

您可以将输出保存到一个文件中,然后使用azure数据工厂中的存储过程活动进行upsert。这只是一个小过程,它将插入来自文件的值。我假设您在这里使用的是Azure数据工厂。

票数 0
EN

Stack Overflow用户

发布于 2021-06-29 13:14:33

请参阅数据掌握中的这篇很棒的文章,了解可重用SQLType2SCD函数,以便从数据库写入专用PySpark池(正式的Azure DW)!欢迎使用:)

https://www.linkedin.com/pulse/databricks-pyspark-type-2-scd-function-azure-pools-rory-mcmanus/

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/58255818

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档