我有10个服务器(16G内存,8个核心),想要部署Hadoop和Spark,您能告诉我哪一个计划可以最大限度地利用资源吗?
我知道与使用场景相关的资源利用率,实际上我想知道上述三种计划的优缺点。
谢谢。
发布于 2014-10-07 14:56:45
为了获得最高的资源利用率,为Spark和Hadoop部署一个单一的资源管理器将是最好的方法。这方面有两种选择:
隔离星型集群和Hadoop集群没有提供任何优势,并将导致更高的开销和较低的资源利用率。
https://stackoverflow.com/questions/26238459
复制相似问题