因此,我使用CloudFormation脚本/指令在AWS中部署了一个具有默认集群设置的这里 (5个私有从站、一个公共从站、一个主站,全部为m3.xlarge),并使用dcos命令:dcos package install hdfs在集群上安装了HDFS。
根据DC/OS网络用户界面和马拉松的说法,HDFS服务显然是健康的:

(问题)此时我应该能够将SSH放入我的从节点并执行hadoop fs命令,但这会返回错误-bash: hadoop: command not found (基本上告诉我这里没有安装hadoop )。
不存在来自HDFS服务的STDOUT和STDERR日志记录的错误,但就其价值而言,日志中出现了一条反复出现的“提供拒绝”消息:
Processing DECLINE call for offers: [ 5358a8d8-74b4-4f33-9418-b76578d6c82b-O8390 ] for framework 5358a8d8-74b4-4f33-9418-b76578d6c82b-0001 (hdfs) at scheduler-60fe6c75-9288-49bc-9180-f7a271c …
我肯定我错过了一些愚蠢的东西。
发布于 2016-08-10 19:53:27
因此,我想出了--一种解决方案,用于在安装后至少验证HDFS是否在您的Mesos /OS集群上运行。
dcos CLI:dcos node ssh --master-proxy --leader进入您的主服务器docker run -ti cloudera/quickstart hadoop fs -ls hdfs://namenode-0.hdfs.mesos:9001/为什么这不是一个好的解决方案&需要注意的是:
hdfs://hdfs/的默认URL,它将抛出一个java.net.UnknownHostException。我不喜欢直接指向namenode。hdfs fs ...命令--这不像文档所描述的那样工作。dcos package install hdfs安装的HDFS完全不同。这种回购不再被维护,新版本还没有开源(因此我猜缺乏当前的文档)。我希望有一种更简单的方式与HDFS接口,但我仍然缺少。任何更好的解决方案仍然是非常有帮助的!
https://stackoverflow.com/questions/38856140
复制相似问题