首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >使用FileUtil API在同一个hdfs中复制文件会花费太多时间。

使用FileUtil API在同一个hdfs中复制文件会花费太多时间。
EN

Stack Overflow用户
提问于 2016-11-11 12:18:50
回答 1查看 164关注 0票数 0

我有一个HDFS和我的本地系统,我在其中执行我的程序,以便在同一个hdfs系统中执行复制。喜欢:hadoop fs -cp /user/hadoop/SrcFile /user/hadoop/TgtFile

我使用的是:

代码语言:javascript
复制
FileUtil.copy(FileSystem srcFS,
FileStatus srcStatus,
FileSystem dstFS,
Path dst,
boolean deleteSource,
boolean overwrite,
Configuration conf) 

但是发生了一些奇怪的事情,当我从命令行进行复制时,复制只需要一小段时间,但当我以编程方式复制190MB文件时,需要10 - 15分钟。

对我来说,它看起来像是通过我的本地系统流式传输数据,而不是直接流式传输,因为目标与源也在相同的文件系统上。

如果我错了,请纠正我,并帮助我找到最佳解决方案。

EN

回答 1

Stack Overflow用户

发布于 2016-11-14 06:56:08

你是对的,使用FileUtil.copy流传输通过你的程序(src -->你的程序--> dst)。如果hadoops文件系统shell API (hadoop dfs -cp)比您可以通过Runtime.exec(cmd)使用的更快

https://github.com/apache/hadoop/blob/trunk/hadoop-common-project/hadoop-common/src/main/java/org/apache/hadoop/fs/FileUtil.java

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/40541046

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档