我正在尝试从blob存储导出多个.csv文件到Azure数据湖存储,基于参数文件,使用ADF -for每个迭代blob中的每个文件并复制活动,从源复制到接收器(我已经尝试使用元数据和每个活动),因为我在Azure上是新手,有人可以帮助我实现一个参数文件,将在复制活动中使用。非常感谢
发布于 2021-02-10 11:13:21
如果是的话。我创建了简单的测试:

Lookup activity来访问参数文件。
数据集如下:

Lookup活动的输出如下:

ForEach活动中,我们应该添加dynamic content @activity('Lookup1').output.value。它将访问Lookup活动的输出数组。
ForEach activity中,我们需要在source选项卡中选择Wildcard file path,并在通配符路径中添加动态content @item().Prop_0。
就这样。
发布于 2021-02-20 12:58:08
我认为您正在询问如何循环多个文件并将所有相似文件合并到一个数据帧中,以便您可以将其推送到SQL Server Synapse中。是那么回事吗?您可以通过在相似文件的路径中放置通配符来遍历Lake中的文件。
复制活动仅选取具有定义的命名模式的文件-例如,"*2020-02-19.csv“或”?20210219.json“。
有关更多详细信息,请参阅下面的链接。
https://stackoverflow.com/questions/66118372
复制相似问题