首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >hadoop setfacl -集不工作

hadoop setfacl -集不工作
EN

Stack Overflow用户
提问于 2015-07-15 06:19:11
回答 1查看 1.9K关注 0票数 2

使用使用kerberos保护的Hadoop-2.6.0。尝试使用以下命令为目录设置ACL

命令

代码语言:javascript
复制
hadoop fs -setfacl --set user::rwx,user:user1:---,group::rwx,other::rwx /test1

它给出的信息是“太多的争论”。

误差

代码语言:javascript
复制
-setfacl: Too many arguments
Usage: hadoop fs [generic options] -setfacl [-R] [{-b|-k} {-m|-x <acl_spec>} <path>]|[--set <acl_spec> <path>]

我确信命令语法是正确的,而且在从REST执行时,同样的命令也能正常工作。

需要一个解决办法。

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2015-07-15 16:29:08

这是HDFS setfacl命令的正确语法。如果您是从cmd.exe运行的,那么如果命令行参数包含任何cmd.exe参数分隔符,则可能需要将它们包装在引号中。在cmd.exe中,参数分隔符是空格、逗号、分号和等号。ACL规范的语法包含逗号,所以我们需要用引号来包装它。否则,在调用Hadoop代码之前,cmd.exe会将其分解为多个参数,这就是为什么您会看到太多参数的错误。当我在Windows上运行这个程序时,它起了作用:

代码语言:javascript
复制
hadoop fs -setfacl --set "user::rwx,user:user1:---,group::rwx,other::rwx" /test1
票数 4
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/31422810

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档