首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏王小雷

    Spark学习之Spark Streaming(9

    Spark学习之Spark Streaming(9) 1. Spark Streaming允许用户使用一套和批处理非常接近的API来编写流式计算应用,这就可以大量重用批处理应用的技术甚至代码。 2. Spark Stream的简单例子 需求:使用maven或者sbt打包编译出来独立应用的形式运行。 //Maven 索引 groupID = org.apache.spark artifactID = spark-steaming_2.10 version = 1.2.0 ._ import org.apache.spark.streaming.dstream.DStream import org.apache.spark.streaming.Duration 输入源包括:核心数据源、附加数据源、多数据源与集群规模。 8. Steaming用户界面http://localhost:4040可以查看运行详细信息。

    1.2K100发布于 2018-01-02
  • 来自专栏开源部署

    Spark集群安装

    配置 /etc/profile环境变量 export SPARK_HOME=/data1/spark/spark export SCALA_HOME=/data1/spark/scala-2.9.3 export PATH=$PATH:$SPARK_HOME/bin:$SCALA_HOME/bin 配置spark的conf下的spark-env.sh export Java_HOME=/usr/java/default export SCALA_HOME=/data1/spark/scala-2.9.3 export SPARK_MASTER_IP=192.168.0.1 export SPARK_MASTER_WEBUI_PORT 是停掉集群,start-all.sh启动集群,jps可以在主节点看到master进程,slave节点看到worker进程 5, 运行程序,运行例子进入spark目录下 分布式运行 . /run-example org.apache.spark.examples.SparkPi spark://192.168.0.1:7077 .

    40010编辑于 2022-06-29
  • 来自专栏DevOps

    spark 集群搭建

    集群配置 以下操作以node01为操作节点 1. 浏览 http://node01:8080/ 9. 搭建Spark HA 1. 修改配置文件 以node02 作为备用主节点,则修改node02的 vi spark-env.sh SPARK_MASTER_IP = node02 集群启动 hdfs ,则spark启动前启动 其他: 比如分别把这两个文件重命名为start-spark-all.sh和stop-spark-all.sh 原因: 如果集群中也配置HADOOP_HOME ,那么在HADOOP_HOME/sbin目录下也有start-all.sh和stop-all.sh这两个文件,当你执行这两个文件,系统不知道是操作hadoop集群还是spark集群

    57810编辑于 2024-03-29
  • 来自专栏blog(为什么会重名,真的醉了)

    Spark集群安装-基于hadoop集群

    文章目录 hadoop集群 下载 环境配置 集群配置 测试 hadoop集群 参考使用docker部署hadoop集群-手把手复现 下载 首先查看hadoop版本 hadoop version 下载 /apache/spark/spark-3.1.1/spark-3.1.1-bin-hadoop3.2.tgz tar -zxvf spark-3.1.1-bin-hadoop3.2.tgz mv spark :$SPARK_HOME/bin:$SPARK_HOME/sbin source /etc/profile spark-env.sh cd /usr/local/spark/conf cp spark-env.sh.template LD_LIBRARY_PATH:/usr/local/jdk1.8/jre/lib/aarch64 (插播反爬信息 )博主CSDN地址:https://wzlodq.blog.csdn.net/ 集群配置 集群 #/usr/local/hadoop/sbin/.

    1.6K30编辑于 2021-12-31
  • 来自专栏Jed的技术阶梯

    Spark HA集群搭建

    集群规划 ? 2. HADOOP_HOME,那么在HADOOP_HOME/sbin目录下也有start-all.sh和stop-all.sh这两个文件,当你执行这两个文件,系统不知道是操作hadoop集群还是spark集群 节点也要启动... # 最好也启动hadoop集群 (8) 在hadoop01节点启动master进程 [hadoop@hadoop01 conf]$ start-master.sh (9) 在hadoop02 hadoop@hadoop01 ~]$ jps 5873 Jps 5125 QuorumPeerMain 5639 Master 5752 Worker [hadoop@hadoop01 ~]$ kill -9 spark HA集群搭建成功!

    1.7K30发布于 2018-09-13
  • 来自专栏桃子小白

    Spark集群服务安装

    master-tz conf]$ pwd /usr/local/src/spark/conf 修改spark-env.sh文件 [hadoop@master-tz conf]$ cp spark-env.sh.template @master-tz conf]# scp -r /usr/local/src/spark/ slave02-tz:/usr/local/src/ 发送完毕后,启动spark集群 [hadoop@master-tz 使用本地模式运行Spark Pi程序 /usr/local/src/spark/bin/spark-submit --class org.apache.spark.examples.SparkPi -- master local[*] /usr/local/src/spark/examples/jars/spark-examples_2.11-2.0.0.jar 10 Standalone模式运行Spark --master spark://master-tz:7077 /usr/local/src/spark/examples/jars/spark-examples_2.11-2.0.0.jar 10

    33510编辑于 2023-06-10
  • 来自专栏软件开发-青出于蓝

    Spark集群安装 原

    一个master和三个worker,同时Hadoop-2.7.7集群,namdenode在master上,俩个datanode在worker1和worker2上。 List-3 #spark export SPARK_HOME=/opt/spark-1.6.0-bin-hadoop2.6 export PATH=$PATH:$SPARK_HOME/bin     最重要的是spark的conf下的配置文件,在master上,如下描述: 1、spark-env.sh     cp spark-env.sh.template  spark-env.sh,之后修改spark-env.sh List-8 这个文件里面的host上,都会启动spark worker master node1 node2     在master上执行List-9中的start-all.sh,之后在master上用 List-9  [root@node1 spark-1.6.0-bin-hadoop2.6]# pwd /opt/spark-1.6.0-bin-hadoop2.6 [root@node1 spark-

    66430发布于 2019-04-15
  • 来自专栏行者悟空

    Spark集群概述

    摘 要 本文简要地概述一下Spark是如何在集群上运行,让它更容易理解。 Spark 组件说明 Spark的应用程序作为一个独立的进程在Spark集群上运行,并由SparkContext对象(驱动程序)来运行你的主应用程序。 一旦运行起来,Spark就可以获得需要执行的集群节点,并为应用程序提供计算和数据存储。接下来Spark将应用程序发送给执行的节点。最后,SparkContext将任务发送给执行器来运行。 集群管理器的类型 Spark目前仅支持一下三个管理器 Standalone:它是一个Spark内部的简单的集群管理器,可以很简单的搭建出一个集群。 任务调度 Spark给予跨应用程序(在集群管理器级别)和应用程序(如果多个计算在同一SparkContext上进行)上的资源分配的控制。

    66930发布于 2018-06-22
  • 来自专栏程序员千羽

    docker搭建spark集群

    docker搭建spark集群 有个小技巧:先配置好一个,在(宿主机上)复制scp -r拷贝Spark到其他Slaves。 到其他Slaves节点: scp -r /usr/local/spark/spark-2.1.0-bin-hadoop2.7 root@slave-001-spark-dev:/usr/local/spark / scp -r /usr/local/spark/spark-2.1.0-bin-hadoop2.7 root@slave-002-spark-dev:/usr/local/spark/ scp -r /usr/local/spark/spark-2.1.0-bin-hadoop2.7 root@slave-003-spark-dev:/usr/local/spark/ 如执行命令出现出现问题时 -001 test-cluster-hap-master-02:7077,test-cluster-hap-master-02:7077 主节点1启动完成 9.验证 原本是访问http://10.8.46.35

    1K10编辑于 2023-08-28
  • 来自专栏技术杂记

    etcd 集群9

    使用环境变量运行新节点,将节点加入集群 [root@h102 etcd-v2.2.4-linux-amd64]# ETCD_NAME="new-h102" ETCD_INITIAL_CLUSTER=" =http://192.168.100.102:2379 [root@h102 etcd-v2.2.4-linux-amd64]# Note: 如果要添加多个节点,建议一次只添加一个,然后检查节点和集群运行状态正常后再依次逐个添加其它节点

    33810编辑于 2022-01-19
  • 来自专栏开源部署

    spark集群环境搭建

    把下载包上传解压 cd /usr/local/ tar -zxvf spark-2.4.5-bin-hadoop2.7.tgz cd /usr/local/spark-2.4.5-bin-hadoop2.7 /conf/ #进入spark配置目录 mv spark-env.sh.template spark-env.sh #从配置模板复制 vi spark-env.sh #添加配置内容 export SPARK_HOME =spark1 SPARK_LOCAL_DIRS=/usr/local/spark-2.4.5-bin-hadoop2.7 SPARK_DRIVER_MEMORY=1G export SPARK_LIBARY_PATH :$JAVA_HOME/lib:$JAVA_HOME/jre/lib:$HADOOP_HOME/lib/native、 vi slaves spark2 spark3 scp -r /usr/local /spark-2.4.5-bin-hadoop2.7 root@spark2:/usr/local/ scp -r /usr/local/spark-2.4.5-bin-hadoop2.7 root@spark3

    64630编辑于 2022-08-08
  • 来自专栏大数据技术博文

    Spark 集群环境部署

    本篇主要记录一下Spark 集群环境搭建过程以及在搭建过程中所遇到的问题及解决方案 主体分为三步 : 一 :基础环境配置 二 :安装包下载 三 :Spark 集群配置文件修改 四 :启动spark master / slaves 五 :编写脚本 一 :基础环境配置 本部分具体步骤可以参考Hadoop集群搭建中的前半部分关于Linux环境搭建以及系统环境配置 二 :安装包下载 下载链接 :http://spark.apache.org /downloads.html 在这里选择Spark对应的Hadoop版本 三 :Spark配置修改 需要修改的文件: 1:conf/spark-env 2 : conf/slaves 3 : sbin /spark-config.sh Spark-env 配置 export SPARK_MASTER_IP=hadoop01 // spark master进程运行节点地址 export SPARK_MASTER_PORT =7077 // spark master进程运行节点端口 export SPARK_WORKER_CORES=1 // 每个work使用的核数 export SPARK_WORKER_INSTANCES

    1.1K50编辑于 2022-04-18
  • Spark yarn集群搭建

    yarn是hadoop的一个子项目,用于管理分布式计算资源,在yarn上面搭建spark集群需要配置好hadoop和spark集群是有3台虚拟机组成,都是centos系统的。 下面一步一步进行集群搭建。 一.配置hosts文件 为了方便地查找主机,hosts文件是主机名到ip的映射,不用去记各个主机的IP地址. master节点上: slave节点上: 看终端报错没有,没报错基本就成功了,再去UI看看,访问:http://ip:8088 集群就搭建好了。 六、安装配置spark: 解压spark压缩包 tar -zxvf spark-2.4.4-bin-hadoop2.6.4.tar 配置spark配置文件: cp spark-env.sh.template slave 上启动了Worker进程: 进入Spark的Web管理页面:ip:8080 七、运行示例 本例以集群模式运行SparkPi实例程序(deploy-mode 设置为cluster

    33410编辑于 2025-12-23
  • 来自专栏阿dai_linux

    Spark+Zookeeper搭建高可用Spark集群

    Spark三种分布式部署方式比较 目前Apache Spark支持三种分布式部署方式,分别是standalone、spark on mesos和 spark on YARN,详情参考。 Spark standalone模式分布式部署 环境介绍 主机名 应用 tvm11 zookeeper tvm12 zookeeper tvm13 zookeeper、spark(master)、spark (slave)、Scala tvm14 spark(backup)、spark(slave)、Scala tvm15 spark(slave)、Scala 说明 依赖scala: Note that 配置spark spark服务配置文件主要有两个:spark-env.sh和slaves。 spark-evn.sh:配置spark运行相关环境变量 slaves:指定worker服务器 配置spark-env.sh:cp spark-env.sh.template spark-env.sh

    1.9K10发布于 2020-03-05
  • 来自专栏王小雷

    Spark学习之在集群上运行Spark(6)

    Spark学习之在集群上运行Spark(6) 1. Spark的一个优点在于可以通过增加机器数量并使用集群模式运行,来扩展程序的计算能力。 2. Spark既能适用于专用集群,也可以适用于共享的云计算环境。 3. Spark在分布式环境中的架构: [图片] Spark集群采用的是主/从结构,驱动器(Driver)节点和所有执行器(executor)节点一起被称为一个Spark应用(application)。 Spark自带的集群管理器被称为独立集群管理器。 4. 驱动器节点 Spark的驱动器是执行程序main()方法的进程。 集群管理器 Spark依赖于集群管理器来启动执行器节点,在某特殊情况下,也依赖集群管理器来启动驱动器节点。 7.

    847100发布于 2018-01-02
  • 来自专栏日常杂记

    生产集群spark报错问题

    spark.executor.memory 15G spark.executor.cores 3 spark.cores.max 21 启动的execuote数量为:7个 execuoteNum = spark.cores.max spark.storage.blockManagerSlaveTimeoutMs spark.shuffle.io.connectionTimeout spark.rpc.askTimeout or 以前遇到过同事在spark的一台worker上跑R的任务导致该节点spark task运行缓慢。 或者可以开启spark的推测机制,开启推测机制后如果某一台机器的几个task特别慢,推测机制会将任务分配到其他机器执行,最后Spark会选取最快的作为最终结果。 spark.speculation true spark.speculation.interval 100 - 检测周期,单位毫秒; spark.speculation.quantile 0.75 -

    2.9K20发布于 2021-03-17
  • 来自专栏迁移内容

    Spark运行standalone集群模式

    spark集群主要有三种运行模式standalone、yarn、mesos,其中常被使用的是standalone和yarn,本文了解一下什么是standalone运行模式,并尝试搭建一个standalone 集群 一、standalone模式 standalone模式,是spark自己实现的,它是一个资源调度框架。 ,我们看一下它的运行流程,如图: 1)当spark集群启动以后,worker节点会有一个心跳机制和master保持通信; 2)SparkContext连接到master以后会向master申请资源,而 cp slaves.template slaves 添加作为worker的机器地址 slave1 slave2 3.4、启动 Spark 集群 $ sbin/start-all.sh [外链图片转存失败 集群情况 [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-YGCNlCEM-1609913096683)(image/image4.png)]

    76910编辑于 2022-12-01
  • 来自专栏大数据学习笔记

    Spark 3.1 Standalone集群搭建

    https://www.apache.org/dyn/closer.lua/spark/spark-3.1.2/spark-3.1.2-bin-hadoop3.2.tgz 2、解压配置 (1)解压 [root .tgz (2)重命名 [root@node2 app]# mv spark-3.1.2-bin-hadoop3.2 spark-3.1.2 [root@node2 app]# cd spark-3.1.2 scp -r spark-3.1.2 node3:/app 3、启动集群 [root@node1 app]# cd spark-3.1.2 [root@node1 spark-3.1.2]# sbin , logging to /app/spark-3.1.2/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-node1.out node3 : starting org.apache.spark.deploy.worker.Worker, logging to /app/spark-3.1.2/logs/spark-root-org.apache.spark.deploy.worker.Worker

    76430发布于 2021-08-13
  • 来自专栏foochane

    spark+hadoop集群搭建

    因为之前有跑过伪分布式模式,建议在切换到集群模式前先删除之前的临时文件。在 Master 节点上执行: //先开Slave 虚拟机 sudo rm -r . /contrib/capacity-scheduler/*.jar STARTUP_MSG: build = https://github.com/apache/hadoop.git -r e8c9fe0b4c252caf2ebf1464220599650f119997 platform... using builtin-java classes where applicable Formatting using clusterid: CID-a3bb4139-d668-46e9- /conf/spark-env.sh.template ./conf/spark-env.sh 编辑 ./conf/spark-env.sh(vim . bashrc 修改spark-defaults.conf cp spark-defaults.conf.template spark-defaults.conf 加入 spark.executor.extraJavaOptions

    2.2K21发布于 2019-05-23
  • 来自专栏大数据学习与分享

    Spark集群和任务执行

    【前言:承接《Spark通识》篇】 Spark集群组件 ? Spark是典型的Master/Slave架构,集群主要包括以下4个组件: Driver:Spark框架中的驱动器,运行用户编写Application 的main()函数。 类比于MapReduce的MRAppmaster Master:主节点,控制整个集群,监控worker。在Yarn模式中为全局资源管理器 Worker:从节点,负责控制计算节点,启动Executor。 类似于MapReduce中的MapTask和ReduceTask Spark基本执行流程 以StandAlone运行模式为例: ? task下发 SchedulerBackend将任务提交到Executor上运行 资源划分的一般规则 获取所有worker上的资源 按照资源大小进行排序 按照排序后的顺序拿取资源 轮询 优先拿资源多的 Spark

    50230发布于 2020-08-10
领券