首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >如何使用Docker创建分布式spark集群

如何使用Docker创建分布式spark集群
EN

Stack Overflow用户
提问于 2018-09-19 18:49:21
回答 1查看 268关注 0票数 3

我正在尝试使用这个docker-compose创建一个只有一个工人的分布式spark集群

代码语言:javascript
复制
    master:
  image: gettyimages/spark:2.0.0-hadoop-2.7
  command: bin/spark-class org.apache.spark.deploy.master.Master -h master
  hostname: master
  container_name: spark-master
  environment:
    SPARK_CONF_DIR: /conf
    SPARK_PUBLIC_DNS: <MASTER IP>
  expose:
    - 7001
    - 7002
    - 7003
    - 7004
    - 7005
    - 7077
    - 6066
  ports:
    - 4040:4040
    - 6066:6066
    - 7077:7077
    - 8080:8080
  volumes:
    - ./conf/master:/conf
    - ./data:/tmp/data
    - ~/spark/data/:/spark/data/

worker:
  image: gettyimages/spark:2.0.0-hadoop-2.7
  command: bin/spark-class org.apache.spark.deploy.worker.Worker spark://master:7077
  hostname: worker
  container_name: spark-worker
  environment:
    SPARK_CONF_DIR: /conf
    SPARK_WORKER_CORES: 2
    SPARK_WORKER_MEMORY: 1g
    SPARK_WORKER_PORT: 8881
    SPARK_WORKER_WEBUI_PORT: 8081
    SPARK_PUBLIC_DNS: <WORKER IP>
  links:
    - master
  expose:
    - 7012
    - 7013
    - 7014
    - 7015
    - 8881
  ports:
    - 8081:8081
  volumes:
    - ./conf/worker:/conf
    - ./data:/tmp/data
    - ~/apps/sparkapp/worker/data:/spark/data/

但问题是,docker守护进程正在同一machine.Which上创建容器,这就失去了拥有分布式network.How的全部意义我可以使用docker创建分布式spark集群吗

EN

回答 1

Stack Overflow用户

发布于 2021-02-23 14:50:10

如果Spark workers的相同端口出现问题,实际上您有两个选择:

  1. 根本不公开工作人员的端口-您不需要它们就可以让工作人员连接到主设备和工作设备。但这可能不方便,因为您无法访问WebUI of worker
  2. 使用诸如"8081-8999:8081“这样的特殊语法,因此每个下一个以docker-compose up --scale worker=2启动的worker将使用不同的端口。
票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/52404139

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档