首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >如何使用kedro写入HDFS

如何使用kedro写入HDFS
EN

Stack Overflow用户
提问于 2022-05-04 19:28:55
回答 2查看 124关注 0票数 1

我正在尝试将我的Kedro管道输出到HDFS文件系统。但我无法在互联网上看到如何做到这一点,也无法在Kedro文档上看到。如果有人在目录中配置了kedro,请共享一个示例代码,如何做到这一点。

还如何使用凭据安全地连接hdfs

我有熊猫的数据。

这个catalog.yml的条目是什么样的,我在哪里提到凭据?

EN

回答 2

Stack Overflow用户

发布于 2022-05-04 19:47:18

在目录中,您可以像hdfs://user@server:port/path/to/data那样定义filepath。

https://kedro.readthedocs.io/en/stable/data/data_catalog.html#specifying-the-location-of-the-dataset

票数 0
EN

Stack Overflow用户

发布于 2022-05-04 20:34:22

假设您可以从外部Kedro (独立火花)写到hdfs,这应该是直接从Kedro。

在目录文件中使用sparkDataSet,并在spark.yml中定义诸如单元格、元存储等属性,这应该是它。

然后,就像上面提到的Rahul一样,您需要指定要写入的hdfs位置的完整路径,如果您仍然面临问题,请共享一些快照。

代码语言:javascript
复制
dataset_name:
  type: spark.SparkDataSet
  filepath: hdfs://your_bucket/location/file.parq
票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/72118483

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档