首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏王小雷

    Spark学习之在集群上运行Spark6

    Spark学习之在集群上运行Spark6) 1. Spark的一个优点在于可以通过增加机器数量并使用集群模式运行,来扩展程序的计算能力。 2. Spark既能适用于专用集群,也可以适用于共享的云计算环境。 3. Spark自带的集群管理器被称为独立集群管理器。 4. 驱动器节点 Spark的驱动器是执行程序main()方法的进程。 两大作用:第一,它们负责运行组成Spark应用的任务,并将结果返回给驱动器进程;第二,它们通过自身的块管理器(Block Manager)为用户程序中要求的缓存的RDD提供内存式存储。 6. 集群管理器 Spark依赖于集群管理器来启动执行器节点,在某特殊情况下,也依赖集群管理器来启动驱动器节点。 7.

    847100发布于 2018-01-02
  • 来自专栏DevOps

    spark 集群搭建

    集群配置 以下操作以node01为操作节点 1. 配置 slaves vi slaves node01 node02 node03 6. 修改配置文件 以node02 作为备用主节点,则修改node02的 vi spark-env.sh SPARK_MASTER_IP = node02 集群启动 hdfs ,则spark启动前启动 其他: 比如分别把这两个文件重命名为start-spark-all.sh和stop-spark-all.sh 原因: 如果集群中也配置HADOOP_HOME ,那么在HADOOP_HOME/sbin目录下也有start-all.sh和stop-all.sh这两个文件,当你执行这两个文件,系统不知道是操作hadoop集群还是spark集群

    57810编辑于 2024-03-29
  • 来自专栏开源部署

    Spark集群安装

    配置 /etc/profile环境变量 export SPARK_HOME=/data1/spark/spark export SCALA_HOME=/data1/spark/scala-2.9.3 export PATH=$PATH:$SPARK_HOME/bin:$SCALA_HOME/bin 配置spark的conf下的spark-env.sh export Java_HOME=/usr/java/default export SCALA_HOME=/data1/spark/scala-2.9.3 export SPARK_MASTER_IP=192.168.0.1 export SPARK_MASTER_WEBUI_PORT 是停掉集群,start-all.sh启动集群,jps可以在主节点看到master进程,slave节点看到worker进程 5, 运行程序,运行例子进入spark目录下 分布式运行 . /run-example org.apache.spark.examples.SparkPi spark://192.168.0.1:7077 .

    40010编辑于 2022-06-29
  • 来自专栏blog(为什么会重名,真的醉了)

    Spark集群安装-基于hadoop集群

    文章目录 hadoop集群 下载 环境配置 集群配置 测试 hadoop集群 参考使用docker部署hadoop集群-手把手复现 下载 首先查看hadoop版本 hadoop version 下载 /apache/spark/spark-3.1.1/spark-3.1.1-bin-hadoop3.2.tgz tar -zxvf spark-3.1.1-bin-hadoop3.2.tgz mv spark :$SPARK_HOME/bin:$SPARK_HOME/sbin source /etc/profile spark-env.sh cd /usr/local/spark/conf cp spark-env.sh.template LD_LIBRARY_PATH:/usr/local/jdk1.8/jre/lib/aarch64 (插播反爬信息 )博主CSDN地址:https://wzlodq.blog.csdn.net/ 集群配置 集群 #/usr/local/hadoop/sbin/.

    1.6K30编辑于 2021-12-31
  • 来自专栏Jed的技术阶梯

    Spark HA集群搭建

    集群规划 ? 2. /sbin下的start-all.sh和stop-all.sh这两个文件重命名 比如分别把这两个文件重命名为start-spark-all.sh和stop-spark-all.sh 原因: 如果集群中也配置 HADOOP_HOME,那么在HADOOP_HOME/sbin目录下也有start-all.sh和stop-all.sh这两个文件,当你执行这两个文件,系统不知道是操作hadoop集群还是spark集群 :`pwd` (6) 在集群所有节点中配置SPARK_HOME环境变量 [hadoop@hadoop01 conf]$ vim ~/.bash_profile export SPARK_HOME=/home spark HA集群搭建成功!

    1.7K30发布于 2018-09-13
  • 来自专栏桃子小白

    Spark集群服务安装

    master-tz conf]$ pwd /usr/local/src/spark/conf 修改spark-env.sh文件 [hadoop@master-tz conf]$ cp spark-env.sh.template @master-tz conf]# scp -r /usr/local/src/spark/ slave02-tz:/usr/local/src/ 发送完毕后,启动spark集群 [hadoop@master-tz 使用本地模式运行Spark Pi程序 /usr/local/src/spark/bin/spark-submit --class org.apache.spark.examples.SparkPi -- master local[*] /usr/local/src/spark/examples/jars/spark-examples_2.11-2.0.0.jar 10 Standalone模式运行Spark --master spark://master-tz:7077 /usr/local/src/spark/examples/jars/spark-examples_2.11-2.0.0.jar 10

    33510编辑于 2023-06-10
  • 来自专栏软件开发-青出于蓝

    Spark集群安装 原

    一个master和三个worker,同时Hadoop-2.7.7集群,namdenode在master上,俩个datanode在worker1和worker2上。 root root 4096 4月 11 16:31 hadoop-2.7.7 drwxr-xr-x 8 root root 4096 4月 11 14:52 jdk1.8 drwxr-xr-x 6 ,内容如下List-6。 加入List-7中的内容,最终结果是List-6所示。 List-6 log4j.rootCategory=INFO, console,FILE log4j.appender.console=org.apache.log4j.ConsoleAppender

    66430发布于 2019-04-15
  • 来自专栏行者悟空

    Spark集群概述

    摘 要 本文简要地概述一下Spark是如何在集群上运行,让它更容易理解。 Spark 组件说明 Spark的应用程序作为一个独立的进程在Spark集群上运行,并由SparkContext对象(驱动程序)来运行你的主应用程序。 一旦运行起来,Spark就可以获得需要执行的集群节点,并为应用程序提供计算和数据存储。接下来Spark将应用程序发送给执行的节点。最后,SparkContext将任务发送给执行器来运行。 集群管理器的类型 Spark目前仅支持一下三个管理器 Standalone:它是一个Spark内部的简单的集群管理器,可以很简单的搭建出一个集群。 任务调度 Spark给予跨应用程序(在集群管理器级别)和应用程序(如果多个计算在同一SparkContext上进行)上的资源分配的控制。

    66930发布于 2018-06-22
  • 来自专栏程序员千羽

    docker搭建spark集群

    docker搭建spark集群 有个小技巧:先配置好一个,在(宿主机上)复制scp -r拷贝Spark到其他Slaves。 " (4)配置workers cp workers.template workers vim workers # 添加 test-cluster-spk-slave-001 6.配置log4j.properties 到其他Slaves节点: scp -r /usr/local/spark/spark-2.1.0-bin-hadoop2.7 root@slave-001-spark-dev:/usr/local/spark / scp -r /usr/local/spark/spark-2.1.0-bin-hadoop2.7 root@slave-002-spark-dev:/usr/local/spark/ scp -r /usr/local/spark/spark-2.1.0-bin-hadoop2.7 root@slave-003-spark-dev:/usr/local/spark/ 如执行命令出现出现问题时

    1K10编辑于 2023-08-28
  • 来自专栏后端精进之路

    Spark系列 - (6) Spark 内存管理

    6. Spark内存管理 在执行Spark的应用程序时,Spark集群会启动Driver和Executor两种JVM线程,前者为主控进程,负责创建Spark上下文,提交Spark作业(Job),并将作业转化为计算任务 堆内内存 堆内内存的大小,由Spark应用程序启动时spark.executor.memory参数配置。 申请内存: Spark在代码中new一个对象实例 JVM从堆内内存分配空间,创建对象并返回对象引用 Spark保存该对象的引用,记录该对象占用的内存 释放内存: Spark记录该对象释放的内存,删除该对象的引用 * spark.shuffle.memoryFraction * spark.shuffle.safetyFraction 其中这个预留的保险区域仅仅是一种逻辑上的规划,在具体使用时Spark并没有区别对待

    1.3K31编辑于 2023-10-19
  • 来自专栏开源部署

    spark集群环境搭建

    1.安装jdk 安装环境:CentOS-7.0.1708 安装方式:源码安装 软件:jdk-6u45-linux-x64.bin 下载地址:http://www.Oracle.com/technetwork /Java/javase/downloads/java-archive-downloads-javase6-419409.html 第一步:更该权限 chmod 775 jdk-6u45-linux-x64 /jdk-6u45-linux-x64.bin 第三步:配置环境变量 环境变量的配置分为几种方式,根据自己的选择配置: 方式一:vi /etc/profile文件中配置JAVA_HOME以及PATH和CLASS_PATH /conf/ #进入spark配置目录 mv spark-env.sh.template spark-env.sh #从配置模板复制 vi spark-env.sh #添加配置内容 export SPARK_HOME =spark1 SPARK_LOCAL_DIRS=/usr/local/spark-2.4.5-bin-hadoop2.7 SPARK_DRIVER_MEMORY=1G export SPARK_LIBARY_PATH

    64630编辑于 2022-08-08
  • 来自专栏大数据技术博文

    Spark 集群环境部署

    本篇主要记录一下Spark 集群环境搭建过程以及在搭建过程中所遇到的问题及解决方案 主体分为三步 : 一 :基础环境配置 二 :安装包下载 三 :Spark 集群配置文件修改 四 :启动spark master / slaves 五 :编写脚本 一 :基础环境配置 本部分具体步骤可以参考Hadoop集群搭建中的前半部分关于Linux环境搭建以及系统环境配置 二 :安装包下载 下载链接 :http://spark.apache.org /downloads.html 在这里选择Spark对应的Hadoop版本 三 :Spark配置修改 需要修改的文件: 1:conf/spark-env 2 : conf/slaves 3 : sbin /spark-config.sh Spark-env 配置 export SPARK_MASTER_IP=hadoop01 // spark master进程运行节点地址 export SPARK_MASTER_PORT =7077 // spark master进程运行节点端口 export SPARK_WORKER_CORES=1 // 每个work使用的核数 export SPARK_WORKER_INSTANCES

    1.1K50编辑于 2022-04-18
  • Spark yarn集群搭建

    yarn是hadoop的一个子项目,用于管理分布式计算资源,在yarn上面搭建spark集群需要配置好hadoop和spark集群是有3台虚拟机组成,都是centos系统的。 下面一步一步进行集群搭建。 一.配置hosts文件 为了方便地查找主机,hosts文件是主机名到ip的映射,不用去记各个主机的IP地址. master节点上: slave节点上: 看终端报错没有,没报错基本就成功了,再去UI看看,访问:http://ip:8088 集群就搭建好了。 六、安装配置spark: 解压spark压缩包 tar -zxvf spark-2.4.4-bin-hadoop2.6.4.tar 配置spark配置文件: cp spark-env.sh.template slave 上启动了Worker进程: 进入Spark的Web管理页面:ip:8080 七、运行示例 本例以集群模式运行SparkPi实例程序(deploy-mode 设置为cluster

    33410编辑于 2025-12-23
  • 来自专栏阿dai_linux

    Spark+Zookeeper搭建高可用Spark集群

    Spark三种分布式部署方式比较 目前Apache Spark支持三种分布式部署方式,分别是standalone、spark on mesos和 spark on YARN,详情参考。 Spark standalone模式分布式部署 环境介绍 主机名 应用 tvm11 zookeeper tvm12 zookeeper tvm13 zookeeper、spark(master)、spark (slave)、Scala tvm14 spark(backup)、spark(slave)、Scala tvm15 spark(slave)、Scala 说明 依赖scala: Note that 配置spark spark服务配置文件主要有两个:spark-env.sh和slaves。 spark-evn.sh:配置spark运行相关环境变量 slaves:指定worker服务器 配置spark-env.sh:cp spark-env.sh.template spark-env.sh

    1.9K10发布于 2020-03-05
  • 来自专栏不温卜火

    Spark内核详解 (6) | Spark Shuffle 解析

    相比于 Hadoop 的 MapReduce, 我们将看到 Spark 提供了多种结算结果处理的方式及对 Shuffle 过程进行的多种优化. HashShuffle 解析 Spark-1.6 之前默认的shuffle方式是hash. 在 spark-1.6版本之后使用Sort-Base Shuffle,因为HashShuffle存在的不足所以就替换了HashShuffle. Spark2.0之后, 从源码中完全移除了HashShuffle. 数量为单位的本地文件中,(一个Core只有一种类型的Key的数据),每1个Task所在的进程中,分别写入共同进程中的3份本地文件,这里有4个Mapper Tasks,所以总共输出是 2个Cores x 3个分类文件 = 6个本地小文件

    92020发布于 2020-10-28
  • 来自专栏日常杂记

    生产集群spark报错问题

    spark.executor.memory 15G spark.executor.cores 3 spark.cores.max 21 启动的execuote数量为:7个 execuoteNum = spark.cores.max spark.storage.blockManagerSlaveTimeoutMs spark.shuffle.io.connectionTimeout spark.rpc.askTimeout or 以前遇到过同事在spark的一台worker上跑R的任务导致该节点spark task运行缓慢。 或者可以开启spark的推测机制,开启推测机制后如果某一台机器的几个task特别慢,推测机制会将任务分配到其他机器执行,最后Spark会选取最快的作为最终结果。 spark.speculation true spark.speculation.interval 100 - 检测周期,单位毫秒; spark.speculation.quantile 0.75 -

    2.9K20发布于 2021-03-17
  • 来自专栏迁移内容

    Spark运行standalone集群模式

    spark集群主要有三种运行模式standalone、yarn、mesos,其中常被使用的是standalone和yarn,本文了解一下什么是standalone运行模式,并尝试搭建一个standalone 集群 一、standalone模式 standalone模式,是spark自己实现的,它是一个资源调度框架。 ,我们看一下它的运行流程,如图: 1)当spark集群启动以后,worker节点会有一个心跳机制和master保持通信; 2)SparkContext连接到master以后会向master申请资源,而 而TaskScheduler会将task分配到worker,提交给executor进程,executor进程会创建线程池去执行task,并且向SparkContext报告执行情况,直到task完成; 6) slave2 3.4、启动 Spark 集群 $ sbin/start-all.sh [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-fmreEthG-1609913096682

    76910编辑于 2022-12-01
  • 来自专栏大数据学习笔记

    Spark 3.1 Standalone集群搭建

    https://www.apache.org/dyn/closer.lua/spark/spark-3.1.2/spark-3.1.2-bin-hadoop3.2.tgz 2、解压配置 (1)解压 [root .tgz (2)重命名 [root@node2 app]# mv spark-3.1.2-bin-hadoop3.2 spark-3.1.2 [root@node2 app]# cd spark-3.1.2 scp -r spark-3.1.2 node3:/app 3、启动集群 [root@node1 app]# cd spark-3.1.2 [root@node1 spark-3.1.2]# sbin , logging to /app/spark-3.1.2/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-node1.out node3 : starting org.apache.spark.deploy.worker.Worker, logging to /app/spark-3.1.2/logs/spark-root-org.apache.spark.deploy.worker.Worker

    76430发布于 2021-08-13
  • 来自专栏foochane

    spark+hadoop集群搭建

    /bin/hadoop version 伪分布式需要修改6个配置文件 ,文件位于/usr/local/hadoop/etc/hadoop/ 1. slaves 将文件中原来的 localhost 删除, mapreduce.jobhistory.webapp.address</name> <value>master:19888</value> </property> </configuration> 6. 因为之前有跑过伪分布式模式,建议在切换到集群模式前先删除之前的临时文件。在 Master 节点上执行: //先开Slave 虚拟机 sudo rm -r . /conf/spark-env.sh.template ./conf/spark-env.sh 编辑 ./conf/spark-env.sh(vim . bashrc 修改spark-defaults.conf cp spark-defaults.conf.template spark-defaults.conf 加入 spark.executor.extraJavaOptions

    2.2K21发布于 2019-05-23
  • 来自专栏大数据学习与分享

    Spark集群和任务执行

    【前言:承接《Spark通识》篇】 Spark集群组件 ? Spark是典型的Master/Slave架构,集群主要包括以下4个组件: Driver:Spark框架中的驱动器,运行用户编写Application 的main()函数。 类比于MapReduce的MRAppmaster Master:主节点,控制整个集群,监控worker。在Yarn模式中为全局资源管理器 Worker:从节点,负责控制计算节点,启动Executor。 类似于MapReduce中的MapTask和ReduceTask Spark基本执行流程 以StandAlone运行模式为例: ? task下发 SchedulerBackend将任务提交到Executor上运行 资源划分的一般规则 获取所有worker上的资源 按照资源大小进行排序 按照排序后的顺序拿取资源 轮询 优先拿资源多的 Spark

    50230发布于 2020-08-10
领券