首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏Java后端开发博客

    搭建Hadoop集群

    # 搭建Hadoop集群 规划 配置网络 修改主机名 安装和配置Java 卸载原有的JDK 安装新的JDK 安装Hadoop Hadoop系统配置 配置从节点的网络 克隆三台完整的虚拟机 免密登录 enjoy 提示 搭建集群作为一件事,应该一气呵成,希望你腾出一两个小时的时间来完成搭建,提前祝你搭建成功! 的环境变量 vim /etc/profile export HADOOP_HOME=/opt/hadoop/hadoop-2.10.1 export PATH=$HADOOP_HOME/bin:$PATH [root@master hadoop]# cd /opt/hadoop/hadoop-2.10.1/etc/hadoop [root@master hadoop]# ls capacity-scheduler.xml ssh-copy-id slave2 ssh-copy-id slave3 ssh master exit退出 主节点格式化 hdfs namenode -format 中途可能需要你输入Y 主节点开启集群

    3.8K51编辑于 2022-12-25
  • 来自专栏性能与架构

    Hadoop 集群搭建

    目标 在3台服务器上搭建 Hadoop2.7.3 集群,然后测试验证,要能够向 HDFS 上传文件,并成功运行 mapreduce 示例程序 搭建思路 (1)准备基础设施 准备3台服务器,分别命名为 .tar.gz $ tar -xzf hadoop-2.7.3.tar.gz $ mv hadoop-2.7.3 hadoop $ cd hadoop $ mkdir tmp hdfs $ mkdir /etc/hadoop/slaves 删除已有内容,添加: slave1 slave2 修改 /home/hadoop/etc/hadoop/hadoop-env.sh 找到 export JAVA_HOME 可以正常访问的话,可以说明集群启动成功了,但不一定可以正常运行,还需要下面的实际验证 测试验证 (1)hdfs 操作 创建目录 $ hdfs dfs -mkdir -p /user/hadoop (2)mapreduce 操作 hadoop 安装包中提供了一个示例程序,我们可以使用它对刚刚上传的文件进行测试 $ hadoop jar /home/hadoop/share/hadoop/mapreduce

    5.3K91发布于 2018-04-04
  • 来自专栏兮动人的博客

    Hadoop 集群搭建

    Hadoop 集群简介 Hadoop集群包括两个集群:HDFS集群、YARN集群 两个集群逻辑上分离、通常物理上在一起 两个集群都是标准的主从架构集群 ? ? 逻辑上分离 两个集群互相之间没有依赖、互不影响 物理上在一起 某些角色进程往往部署在同一台物理服务器上 MapReduce集群呢? MapReduce是计算框架、代码层面的组件没有集群之说 ? 2. Hadoop 部暑模式 ? 3. Hadoop 集群安装 step1:集群角色规划 角色规划的准则 根据软件工作特性和服务器硬件资源情况合理分配 比如依赖内存工作的NameNode是不是部署在大内存机器上? 总结 服务器基础环境 Hadoop源码编译 Hadoop配置文件修改 shell文件、4个xml文件、workers文件 配置文件集群同步

    1.8K20发布于 2021-06-11
  • 来自专栏MyBatis入门案例-注解

    安装Hadoop集群

    文章目录 安装集群前的准备工作 关闭防火墙,开机不自启 关闭selinux ssh免密码登录 修改主机名 设置主机名和IP的对应关系 安装jdk 安装Hadoop集群 上传压缩包并解压 查看Hadoop 支持的压缩方式以及本地库 修改配置文件 创建文件存放目录 安装包的分发 配置Hadoop的环境变量 集群启动 查看集群是否启动 关闭集群 安装集群前的准备工作 关闭防火墙,开机不自启 server iptables 查看之前的这篇安装jdk: https://mp.csdn.net/mdeditor/102639879# 保证至少有三个虚拟机,每个虚拟机完成上面操作 安装Hadoop集群 上传压缩包并解压 ? -- 集群动态上下线 <property> <name>dfs.hosts</name> <value>/export/servers/hadoop-2.6.0-cdh5.14.0/etc 关闭集群 [root@node01 sbin]# cd /export/servers/hadoop-2.6.0-cdh5.14.0/sbin [root@node01 sbin]# stop-all.sh

    2.5K30发布于 2021-02-05
  • 来自专栏学习内容

    Hadoop集群搭建

    遍历集群所有机器 for host in hadoop101 hadoop102 hadoop103 do echo ==================== $host ========= ssh-copy-id hadoop102 ssh-copy-id hadoop103 测试: ssh hadoop001 还需要配置(集群各个节点之间免密沟通): hadoop101上采用root -3.1.3/etc/hadoop/ 5、群起集群 5.1 配置workers 新增节点配置文件 vim /opt/module/hadoop-3.1.3/etc/hadoop/workers hadoop101 hadoop102 hadoop103 同步配置 xsync /opt/module/hadoop-3.1.3/etc 5.2 启动集群 如果集群是第一次启动,需要在hadoop001节点格式化NameNode (注意:格式化NameNode,会产生新的集群id,导致NameNode和DataNode的集群id不一致,集群找不到已往数据。

    1.3K20编辑于 2023-08-10
  • 来自专栏从零开始的linux

    搭建Hadoop集群

    -2.7.1.tar.gz [root@node01 ~]# mv hadoop-2.7.1 /usr/local/hadoop/ [root@node01 ~]# cd /usr/local/hadoop / [root@node01 ~]$ mkdir -pv dfs/name dfs/data tmp [root@node01 hadoop]# cd etc/hadoop/ [root@node01 hadoop]$ vim hadoop-env.sh export JAVA_HOME=/usr/java/jdk1.8.0_65/ [root@node01 hadoop]$ vim yarn-env.sh 添加节点 [root@node01 hadoop]$ vim slaves node02 node03 [root@node01 hadoop]$ vim core-site.xml <configuration /hdfs namenode -format 启动服务 [root@node01 hadoop]# sbin/start-all.sh 查看端口 [root@node01 hadoop]# netstat

    2.3K60发布于 2018-04-25
  • 来自专栏兮动人的博客

    Hadoop 集群安装

    Hadoop集群启动关闭-手动逐个进程启停 3. Hadoop集群启动关闭-shell脚本一键启停 4. Hadoop集群启动日志 5. Hadoop Web UI页面-HDFS集群 6. Hadoop Web UI页面-YARN集群 1. Step8:NameNode format(格式化操作) 首次启动HDFS时,必须对其进行格式化操作。 Hadoop集群启动关闭-手动逐个进程启停 每台机器上每次手动启动关闭一个角色进程 HDFS集群 hdfs --daemon start namenode|datanode|secondarynamenode HDFS集群 start-dfs.sh stop-dfs.sh YARN集群 start-yarn.sh stop-yarn.sh Hadoop集群 start-all.sh stop-all.sh Hadoop集群启动日志 启动完毕之后可以使用jps命令查看进程是否启动成功 ? ? ?

    1K20发布于 2021-06-11
  • 来自专栏软件工程师Michael

    hadoop集群搭建

    集群搭建 1.集群部署规划 192.168.5.102 hadoop102 192.168.5.103 hadoop103 192.168.5.104 hadoop104 集群规划.png 可以进入hadoop103、hadoop104上检查确认一下。 截至到这一步,hadoop集群的配置工作就完成了。 workers.png 同步所有节点配置文件 xsync /opt/module/hadoop-3.1.3/etc 截图略 2.启动集群(这部分就不一一截图了) (1)初始化 如果是集群第一次启动 hadoop103.png hadoop104.png 跟之前的集群部署规划一致! 3.集群基本测试 (1)上传文件到集群 上传小文件:hadoop fs -mkdir /input 执行完后,HDFS网页种多了个input文件 (2)上传到文件 hadoop fs -put /opt

    1.8K10编辑于 2022-05-28
  • 来自专栏技术开发——你我他

    hadoop集群搭建

    使用命令 ll /root 2.2.4.1接下来启动hdfs集群 . /sbin/start-dfs.sh #其他集群也需要执行这个命令 显示如下: [root@master hadoop-3.2.1]# . 我们需要访问 50070端口 现在们使用hadoop 3.x 我们需要访问 9870端口 以我自己现在使用的为例 #这个是hdfs xx.xx.xx.160:9870 #这个集群节点 xx.xx.xx .160:8088 后面 可能启动后无法访问xx.xx.xx.160:8088 系统缓存原因(这个关闭主集群节点就行了) 我们需要先关闭然后重新启动集群节点 . /sbin/start-dfs.sh Hadoop集群密码设置见 https://blog.csdn.net/teeleejoin/article/details/93490570

    3.6K20发布于 2020-08-24
  • 来自专栏云计算linux

    Hadoop集群安装

    集群规划 node01 node02 node03 角色 主节点 从节点 从节点 NameNode √ DataNode √ √ √ ResourceManager √ NodeManager 主要作用是配合一键启动脚本如start-dfs.sh、stop-yarn.sh用来进行集群启动。这时候workers文件里面的主机标记的就是从节点角色所在的机器。 server/hadoop export PATH= HADOOP_HOME/bin:$HADOOP_HOME/sbin source /etc/profile Hadoop集群启动 启动方式 要启动Hadoop 集群,需要启动HDFS和YARN两个集群。 一键脚本启动 如果配置了etc/hadoop/workers和ssh免密登录,则可以使用程序脚本启动所有Hadoop两个集群的相关进程,在主节点所设定的机器上执行。

    83910编辑于 2024-12-07
  • 来自专栏DevOps

    Hadoop 集群部署

    完全分布式安装才是生产环境采用的模式,Hadoop运行在服务器集群上,生产环境一般都会做HA,以实现高可用。 一. 集群规划 192.168.77.128 192.168.77.130 192.168.77.134 二. 基础设置 1. 集群安装 1. hadoop下载解压 wget http://archive.cloudera.com/cdh5/cdh/5/hadoop-2.6.0-cdh5.7.0.tar.gz tar 集群运行 单服务启动和集群启动,俩者二选一 1. 集群启动 1. 集群启动 start-all.sh stop-all.sh #关闭 hdfs 启动: namenode: hadoop-daemon.sh

    60710编辑于 2024-03-29
  • 来自专栏开源部署

    Hadoop学习教程(四) —- Hadoop集群

    下面就跟着笔者开始配置Hadoop集群吧。 在首次启动之前,先格式化NameNode,之后启动就不需要格式化了,命令如下:   hadoop namenode -format   接下来,启动Hadoop集群:   start-all.sh    集群测试:   接下来我们运行一下hadoop-example.jar中自带的wordCount程序,用户统计单词出现次数,步骤如下:   1.新建一个test.txt,内容可自行填写:   2.在HDFS fs -ls /user/hadoop/input1/   5.运行hadoop-example.jar,命令如下:     cd /usr/local/hadoop     hadoop -jar 至此Hadoop集群就安装结束了,而且也测试过了,就先写到这里了。 全部系列见:http://www.linuxidc.com/search.aspx?where=nkey&keyword=44572

    1.7K20编辑于 2022-07-08
  • 来自专栏张泽旭的专栏

    hadoop集群安装

    /configure [root@hadoop01 protobuf-2.5.0]# make install 编译hadoop [root@hadoop01 hadoop-2.7.3-src]# mvn 改变java环境变量,为路径; 创建目录 [root@hadoop01 hadoop-2.7.1]# mkdir data [root@hadoop01 hadoop-2.7.1]# cd data -format 启动hadoop [root@hadoop01 hadoop-2.7.1]# sbin/start-dfs.sh 若启动报错改变如下配置 etc/hadoop/core-site.xml -2.7.1]# bin/hadoop fs -put /home/data/words /words 上传成功后输入命令开始统计 [root@hadoop01 hadoop-2.7.1]# bin/hadoop 测试数据 [root@hadoop01 hadoop-2.7.1]# bin/hdfs dfs -put /etc/profile /profile [root@hadoop01 hadoop-2.7.1

    1.4K20发布于 2018-12-10
  • 来自专栏数据人生

    Hadoop集群优化

    Hadoop namenode vs RM 小集群:namenode和RM可以部署在一个节点上 大集群:因为namenode和RM的内存需求量较大,应将他们分开部署。 HDFS ECC memory ECC memory is strongly recommended, as several Hadoop users have reported seeing many checksum errors when using non-ECC memory on Hadoop clusters. dfs.name.dir 配置成多个路径,FSImage和EditLog会同时写入多个路径 将其设置成0.80,以增加集群的吞吐量 mapreduce.job.user.classpath.first 当你实现的java类和Hadoop自带的类相同的时候,怎么处理呢? 如果不配置该参数的话,在执行mapreduce作业时,系统会优先选择Hadoop框架中已经存在的java类而不是用户指定包中自己编写的java类

    95520编辑于 2022-09-29
  • 来自专栏码的一手好代码

    Hadoop集群配置

    hadoop集群配置 1.多台机器ssh免密配置 修改用户名 # 1.更改hostname hostnamectl --static set-hostname <主机名> 配置Yarn # 配置文件etc/hadoop/mapred-site.xml vim etc/hadoop/mapred-site.xml <configuration> <property> :2888:3888 server.2=hadoop2:2888:3888 server.3=hadoop3:2888:3888 将zookeeper整个文件夹发送到其他节点 在data </name> <value>/usr/local/hadoop-2.6.0/data/tmp</value> </property> </configuration> 启动集群 关闭所有其他相关的进程 :2181,hadoop2:2181,hadoop3:2181</value> </property> 启动 保证所有节点文件相同,关闭所有hdfs服务 启动zookeeper集群 zkServer.sh

    1.8K20发布于 2019-07-24
  • 来自专栏飞鸟的专栏

    hadoop集群安装

    Hadoop是一个分布式系统基础架构,可以高效地存储和处理大规模的数据集。本文将介绍如何在Linux上搭建Hadoop集群。 下载Hadoop:从官网下载Hadoop的稳定版本。 二、安装配置Hadoop 解压Hadoop:将下载的Hadoop文件解压到指定目录下。 配置Hadoop环境变量:编辑/etc/profile文件,将Hadoop的bin目录添加到PATH环境变量中。 $ start-all.sh 测试Hadoop:使用以下命令测试Hadoop是否正常运行。 $ hadoop fs -mkdir /test 三、配置Hadoop集群 配置SSH无密码登录:Hadoop需要使用SSH来在不同节点之间传输数据,因此需要配置SSH无密码登录。

    1.4K11编辑于 2023-03-28
  • 来自专栏喵了个咪的博客空间

    Hadoop集群模式

    既然是大数据无论存储和处理都需要相当大的磁盘或者是处理的资源消耗,那么单机肯定是满足不了我们的需求的,所以本节我们就来了解Hadoop集群模式搭建,在集群情况下一同配合处理任务分发,存储分担等相关的功能进行实践 ,然后使用ping命令检查是否可以互相连通 > ping hadoop-1 > ping hadoop-2 > ping hadoop-3 为所有集群节点创建hadoop用户(如果暴露外网IP务必使用复杂密码避免攻击 :$HADOOP_HOME/sbin:$PATH # 使环境变量生效 > source /etc/profile 配置Hadoop集群 集群/分布式模式需要修改 /usr/local/hadoop-2.7.3 " 查看集群情况(关于磁盘占用,服务器状态等) 当整个集群运行起来之后可以通过hadoop-1:50070进行集群状态的查看和hdfs dfsadmin -report效果一样 > hdfs dfsadmin 集群模式下运行测试程序 执行集群任务执行过程与伪分布式模式一样,首先创建 HDFS 上的用户目录: > hdfs dfs -mkdir -p /user/hadoop 将 /usr/local/hadoop

    1.6K60发布于 2018-03-02
  • 来自专栏LhWorld哥陪你聊算法

    hadoop集群篇--从0到1搭建hadoop集群

    前述 本来有套好好的集群,可是不知道为什么虚拟机镜像文件损坏,结果导致集群不能用。 废话不多说,开始准备环境搭建,本集群搭建完全基于企业思想,所以生产集群亦可以参照此搭建。 二。集群规划 ?  三。配置 1.配置集群节点之间免密操作。 第五步:分发配置到其他节点相同目录 scp -r hadoop-2.6.5 root@node04:`pwd` 第六步:配置zookeeeer集群 同样上传到某一节点 然后配置  1.cp zoo_sample.cfg 1.先启动journalnode      hadoop-daemon.sh start journalnode    2.在两个namenode节点创建/var/sxt/hadoop-2.6/ha 6.在主节点启动集群 start-dfs.sh 7.向zookeeper注册active节点 hdfs zkfc -formatZK 8.启动zkFC负责切换 hadoop-daemon.sh start

    1.7K10发布于 2018-09-13
  • 来自专栏Cloud Data AI

    Hadoop大数据集群搭建(超详细)_hadoop集群搭建

    步 server和agent的启动等命令 10 第13步 WEBUI登录 11 第14步 安装CDH时检测“Host Inspector” 11 第15步 WEBUI的CDH安装 11 三、 集群设置安装向导 点击“继续”,进入集群角色分配,一台机器作为管理节点,另外三台机器作为DataNode: 16 3. 点击“继续”,进入下一步,测试数据库连接: 16 下载地址: 链接: https://pan.baidu.com/s/1VZTI__mUL6LIu3HlsmtScg 一、安装准备 1.1 集群内的管理节点 、工作节点必须做到互信,标识网络标志;关闭iptable等防火墙; 1.2 集群内的节点都要做到基础条件安装测试完毕; 1.3 平台用到mysql8.0.39(aarch64)、Postgresql10.5 集群设置安装向导 0. WEBUI界面重复安装需要注意的事情: 重复WEBUI安装: 删除重新创建(除scm外)的数据库; 删除/dfs目录(所有节点)。 1.

    35210编辑于 2025-12-15
  • 来自专栏blog(为什么会重名,真的醉了)

    Spark集群安装-基于hadoop集群

    文章目录 hadoop集群 下载 环境配置 集群配置 测试 hadoop集群 参考使用docker部署hadoop集群-手把手复现 下载 首先查看hadoop版本 hadoop version 下载 =/usr/local/hadoop export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop export LD_LIBRARY_PATH=$LD_LIBRARY_PATH :/usr/local/jdk1.8/jre/lib/aarch64 (插播反爬信息 )博主CSDN地址:https://wzlodq.blog.csdn.net/ 集群配置 cd /usr/local /local/spark/ hadoop2:/usr/local/ scp -r /usr/local/spark/ hadoop3:/usr/local/ 测试 #记得先启动hadoop集群 #/usr /local/hadoop/sbin/.

    1.6K30编辑于 2021-12-31
领券