我正在尝试定义Hadoop集群的架构(大约10/15个节点),主要用于批量处理(指标预聚合)。
我为我的节点确定了5个角色: Master、Master HA、Slave、Service、Gateway,并尝试区分要在其上安装的软件组件。结果如下所示。我对此不是很确定。客户端(Hive/Sqoop/Spark)必须安装在从节点上吗?

这个架构看起来与您相关吗?是不是少了点什么?谢谢你的帮助!
发布于 2016-06-13 23:31:23
Do the clients (Hive/Sqoop/Spark) have to be installed on the slave nodes? 不怎么有意思。客户端是具有运行Hive/Sqoop/Spark作业的库的节点/服务器。只要您从该计算机提交作业,就不会有任何问题。根据我的说法,这个架构看起来还不错。
https://stackoverflow.com/questions/37792140
复制相似问题