首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Spark需要多少个Shark服务器?

Spark需要多少个Shark服务器?
EN

Stack Overflow用户
提问于 2014-04-18 01:17:06
回答 2查看 130关注 0票数 2

我是Spark/Shark的新手,已经和三个Spark工作者建立了一个集群。我开始在相同的三台服务器上安装Shark,但我得出的结论是,这可能不是必需的,只需要一台Shark服务器--我在文档中找不到任何与此相关的内容。我是否只需要一台Shark服务器,因为Spark/Hive将进行繁重的提升,或者我需要将其分发到Spark所在的所有服务器?

EN

回答 2

Stack Overflow用户

发布于 2014-07-02 22:12:52

Shark是一个Spark应用程序。它就像一个WordCount或Spark Shell。您需要将其放在要从其发送查询的客户端计算机上。

如果工人机器上没有Shark JARS,则必须将它们附加到Spark上下文。

Shark服务器的工作原理有点像unix系统中的“屏幕”。在本例中,Shark服务器是Spark中的一个应用程序。

票数 0
EN

Stack Overflow用户

发布于 2014-07-31 05:52:07

假设Shark指的是ThriftServer,那么每个(火花)集群只需要一个Shark。

这甚至延续到了火花1.0.1,在那里鲨鱼退休了,因为ThriftServer已经被带入了火花核心本身。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/23139466

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档