首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Groovy:如何基于filePattern从HDFS中获取特定文件

Groovy:如何基于filePattern从HDFS中获取特定文件
EN

Stack Overflow用户
提问于 2017-10-24 17:15:31
回答 1查看 384关注 0票数 0

我只想从包含特定名称的HDFS目录中获取这些文件(我已经将几个响应文件的名称命名为this 2017-090-0.1,2017-090-0.2,2017-090-0.3等等),现在我想确定在hdfs中放入了一定数量的flowFile (我的意思是,如果我发送了3个具有相关名称的请求,我将不得不检查是否在HDFS中输入了三个响应),对于这种情况,我使用了下面的代码,但是IT DEOSN没有获取我感兴趣的几个子对象:

  1. 是否使用nifi功能在不使用groovy代码的情况下完成此任务?
  2. 为了使代码工作,我应该更改什么? 导入org.apache.commons.io.IOUtils java.nio.charset.StandardCharsets def flowFile= session.get(1);// it将返回流文件def name=的列表“;def count=0;def value=0;def amount=0;list flowfiles = new ();对于( def N in flowFile){ name=n.getAttribute("realName") count=n.getAttribute("count") value=count为数字value=Math.round(值)} session.remove(flowFile) def findFileRecursive( String directoryName,String filePattern) { def fileFound def目录=新文件(DirectoryName) if (directory.isDirectory()){ def findFilenameClosure ={ if (filePattern.matcher(it.name)filePattern.matcher()){en22= it }}in 20#;();返回fileFound } String filePattern=filePattern.contains(name) String directoryName="/group/test/userDate";findFileRecursive(directoryName,filePattern);if(amount==count){ for(def M in flowFiles){ session.transfer(m,REL_SUCCESS);}}
EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2017-10-24 17:34:15

您可以使用GetHDFS处理器,它将使用可验证的工作代码从HDFS存储中检索这些文件,并将结果流文件路由到successfailure关系中。您不需要编写任何自定义代码来执行此任务。如果有必要,PutHDFS将执行对HDFS的写。

票数 4
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/46916372

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档