首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Kafka和apache Spark流集群配置

Kafka和apache Spark流集群配置
EN

Stack Overflow用户
提问于 2017-07-07 08:12:01
回答 1查看 559关注 0票数 1

我需要在一组机器上运行一些scala脚本。数据由运行在其中一台机器上的Apache生产者生成。

我已经用集群中每个节点的URL配置了Apache中conf目录中的slaves.template文件。

我使用以下指令运行脚本:./bin/spark-submit --class com.unimi.lucaf.App /Users/lucaferrari/scala-spark-script2/target/scala-spark-script-1.0.jar,但它只运行在主节点上。

我怎么才能修好它?

谢谢

解决了

  1. 在文件夹中,confslaves.template文件重命名为slaves,并添加了每个工作人员的URL
  2. 在文件夹中,confspark-env.sh.template文件重命名为spark-env.sh,并添加了以下行: SPARK_MASTER_HOST=1.2.3.4 SPARK_MASTER_PORT=7077 SPARK_MASTER_WEBUI_PORT=4444 SPARK_WORKER_WEBUI_PORT=8081
  3. 在主计算机上的文件夹sbin中,我运行start-master.sh脚本。
  4. 在每个工作人员上,我在文件夹sbin中运行start-slave.sh spark://master-url:master-portmaster-urlmaster-port必须在spark-env.sh文件中配置相同。
  5. 在脚本的火花配置上,我还添加了主url (val sparkConf = new SparkConf().setAppName("SparkScript").setMaster("spark://master-url:master-port") )
  6. 使用./bin/spark-submit --class com.unimi.lucaf.App /home/spark1/scala-spark-script2/target/scala-spark-script-1.0.jar --master spark://master-url:master-port --deploy-mode cluster运行脚本
EN

回答 1

Stack Overflow用户

发布于 2017-07-07 22:10:09

您是否尝试添加

代码语言:javascript
复制
--master <master_url>

选择?如果省略此选项以激发提交,它将在本地运行。

您还可以查看星火提交选项的文档:https://spark.apache.org/docs/latest/submitting-applications.html#launching-applications-with-spark-submit

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/44965782

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档