首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >如何将流数据保存到Azure数据湖?

如何将流数据保存到Azure数据湖?
EN

Stack Overflow用户
提问于 2017-04-12 07:40:25
回答 1查看 1.7K关注 0票数 0

我使用Apache进行流.I,将Apache的数据作为流通过flink,并在Azure数据lake.Is中拥有并保存最终的流,在flink中有可用的连接器在Azure数据湖中转储流数据吗?

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2017-04-12 23:54:31

Flink支持实现org.apache.hadoop.fs.FileSystem的所有文件系统,如下所示:connectors.html

因此,您应该能够将其设置为将数据输出到Azure。这里有一个博客,展示了如何将Hadoop连接到Azure。同样的方法在理论上应该适用于弗林克。https://medium.com/azure-data-lake/connecting-your-own-hadoop-or-spark-to-azure-data-lake-store-93d426d6a5f4

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/43363295

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档