首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏全栈程序员必看

    Hadoop分布式安装_分布式安装

    下载并解压hadoop 下载:直接去cdh网站下载 wget http://archive.cloudera.com/cdh5/cdh/5/hadoop-2.6.0-cdh5.7.0.tar.gz property> <name>dfs.replication</name> <value>1</value> </property> slaves 5

    41920编辑于 2022-08-04
  • 来自专栏个人分享

    Hbase分布式

    然后启动hbase即可,但我发现查询时报错啊。。报错信息被刷掉了- -大概错误是:

    80730发布于 2018-09-06
  • 来自专栏软件开发-青出于蓝

    Spark之分布式搭建、分布式Hadoop、Hive安装

    的配置文件,参考: https://stackoverflow.com/questions/40603714/hive-is-not-allowed-to-impersonate-hive     Spark分布式的安装

    89250发布于 2019-04-15
  • 来自专栏zingpLiu

    Hadoop分布式搭建

    Icon name: computer-vm Chassis: vm Machine ID: a34d80dce9364980962f9d85ffb5e9c8 Last login: Sun Jul 21 16:45:14 2019 from 172.16.142.129 5 安装jdk1.8 5.1 说明 本次安装的是JDK1.8,具体版本为jdk-8u101

    1K60发布于 2019-07-25
  • 来自专栏Golang开发

    Hadoop分布式配置

    hadoop yarn-daemon.sh stop nodemanager stopping nodemanager nodemanager did not stop gracefully after 5

    91320发布于 2019-08-24
  • 来自专栏青灯古酒

    Hadoop分布式安装

    Hadoop分布式安装 安装环境:Centos7.5,只少2核4G 提前准备:Linux中要安装JDK8,Zookeeper-3.5.7 1. 关闭SELINUX vim /etc/selinux/config 将SELINUX属性的值改为disabled 5. 重启 reboot 6.

    70480编辑于 2023-10-16
  • 来自专栏姜同学

    Hadoop分布式搭建

    vim hosts 添加映射,例如: 192.168.229.131 hadoop01 保存退出 5. 重启 reboot 6.

    67620编辑于 2022-10-27
  • 来自专栏工作笔记精华

    hdfs分布式搭建,分布式模式下yarn的配置及测验

    HADOOP_HOME=/usr/local/software/hadoop-2.9.1     export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH 5. ssh/id_rsa   $ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys   $ chmod 0600 ~/.ssh/authorized_keys (5) 69312 DataNode 69487 SecondaryNameNode 69198 NameNode  (8)访问http://192.168.2.130:50070,就能看到hadoop的界面 【分布式模式下 DataNode 69907 ResourceManager 70354 Jps 69487 SecondaryNameNode 70015 NodeManager 69198 NameNode  (5) 测试分布式模式下的mapreduce,让mapreduce计算test.txt里面的每个单词出现的次数。        

    96510发布于 2019-03-05
  • 来自专栏Jed的技术阶梯

    Hadoop分布式集群搭建

    修改 core-site.xml 和 hdfs-site.xml 配置文件,配置分布式相关的内容 [root@repo hadoop]# vi core-site.xml <configuration dfs.namenode.secondary.http-address</name> <value>repo:50090</value> </property> </configuration> 5.

    1.2K10发布于 2018-09-13
  • 来自专栏Jed的技术阶梯

    Spark分布式集群搭建

    repo conf]# cp slaves.template slaves [root@repo conf]# vim slaves # 里面的内容原来为localhost,改为repo repo # 分布式就一台机器 ,用localhost也可以 # 但我们毕竟搭建的是分布式集群,注意,是集群 # 改成repo心里可能更相信它是一个分布式集群 (4) 配置SPARK_HOME环境变量 [root@repo conf spark-2.2.0 export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin [root@repo conf]# source /etc/profile (5) 启动spark分布式集群 注意: 上一步配置了SPARK_HOME,所以在任意位置使用start-all.sh就可以启动spark集群 但是,如果你也配置了HADOOP_HOME,在HADOOP_HOME spark分布式集群搭建成功!

    1.8K10发布于 2018-09-13
  • 来自专栏开源心路

    hadoop分布式搭建01

    1.准备Linux环境             1.0点击VMware快捷方式,右键打开文件所在位置 -> 双击vmnetcfg.exe -> VMnet1 host-only ->

    35210编辑于 2023-06-27
  • 来自专栏JavaEdge

    HDFS分布式环境搭建

    1 HDFS概述及设计目标 1.1 什么是HDFS: Hadoop实现的一个分布式文件系统(Hadoop Distributed File System),简称HDFS 源自于Google的GFS论文 剩余的副本就完全随机节点了 可以看出这个方案比较合理 可靠性:block存储在两个机架上 写带宽:写操作仅仅穿过一个网络交换机 读操作:选择其中得一个机架去读 block分布在整个集群上 5 HDFS 分布式环境搭建 5.1 官方安装文档地址 5.2 环境参数 Mac OS 10.14.4 JDK1.8 Hadoop 2.6.0-cdh5.7.0 ssh rsync 下载Hadoop 2.6.0-cdh5.7.0 jdk1.8/ # 根据你的环境变量进行修改 编辑 hadoop-env.sh 文件 export JAVA_HOME=${/usr/libexec/java_home} 由于我们要进行的是单节点分布式环境的搭建 ,所以还需要配置两个配置文件,分别是core-site.xml以及hdfs-site.xml Hadoop也可以在分布模式下的单节点上运行,其中每个Hadoop守护进程都在单独的Java进程中运行

    47410编辑于 2021-12-07
  • 来自专栏云原生实践

    Hadoop单机分布式部署

    Hadoop 在单节点上以分布式模式运行,其中每个 Hadoop 守护进程在单独的 Java 进程中运行。 Djava.library.path=$HADOOP_HOME/lib" 4.免密登录设置 ssh-copy-id 连续按三次回车键就可以 ssh-copy-id master 中间过程需要输入yes,之后输入root密码 5. 需配置成mapreduce_shuffle,才可运行 MapReduce程序</description> </property> </configuration> (5) 修改hadoop-env.sh 23535 SecondaryNameNode 25935 ResourceManager 查看HDFS web ui,端口9870 查看YARN web ui, 端口8088 到此hadoop单机分布式部署完成

    54420编辑于 2022-09-01
  • 来自专栏程序猿的大杂烩

    HDFS分布式环境搭建

    HDFS概述及设计目标 什么是HDFS: 是Hadoop实现的一个分布式文件系统(Hadoop Distributed File System),简称HDFS 源自于Google的GFS论文 论文发表于 ---- HDFS分布式环境搭建 官方安装文档地址如下: http://archive.cloudera.com/cdh5/cdh/5/hadoop-2.6.0-cdh5.7.0/hadoop-project-dist cdh5.7.0/etc/hadoop]# vim hadoop-env.sh export JAVA_HOME=/usr/local/jdk1.8/ # 根据你的环境变量进行修改 由于我们要进行的是单节点分布式环境的搭建 </name> # 指定只产生一个副本 <value>1</value> </property> </configuration> 然后配置一下密钥对,设置本地免密登录,搭建分布式的话这一步是必须的 到此,我们分布式的hadoop集群就搭建完成了。 ---- HDFS shell操作 以上已经介绍了如何搭建分布式的Hadoop,既然环境已经搭建起来了,那要怎么去操作呢?

    79310发布于 2020-09-23
  • 来自专栏张恒的网络日志

    记hadoop分布式安装

    aa96f1871bfd858f9bac59cf2a81ec470da649af Compiled by brahma on 2020-07-06T18:44Z Compiled with protoc 3.7.1 From source with checksum 5dc29b802d6ccd77b262ef9d04d19c4 local/hadoop/share/hadoop/common/hadoop-common-3.3.0.jar 3. hadoop配置 此时hadoop已经是可以以单机方式运行,为了将hadoop配置成分布式

    69410发布于 2020-12-01
  • 来自专栏开源心路

    hadoop分布式搭建02

    承接hadoop分布式搭建01 3.安装Hadoop  版本 hadoop-2.4.1 3.1上传hadoop安装包 3.2解压hadoop安装包   mkdir /cloud   #解压到 文件夹内容 bin:可执行的脚本 include和libexec:本地库的头文件 sbin:启动和停止相关 etc:配置文件 lib:存放本地库 share:java 用的jar 3.3修改配置文件(5

    33420编辑于 2023-06-27
  • 来自专栏赵俊的Java专栏

    Hadoop 分布式环境搭建

    简介 Hadoop 实现了一个分布式文件系统(Hadoop Distributed File System),简称 HDFS。 本次搭建的是 Hadoop 分布式环境,即所有本机模拟运行所有节点。 获取 root 权限 为了操作方便,这里直接切换到 root 权限进行操作。

    97720发布于 2018-06-04
  • 来自专栏JavaEdge

    HDFS分布式环境搭建

    1 HDFS概述及设计目标 1.1 什么是HDFS: Hadoop实现的一个分布式文件系统(Hadoop Distributed File System),简称HDFS 源自于Google的GFS论文 剩余的副本就完全随机节点了 可以看出这个方案比较合理 可靠性:block存储在两个机架上 写带宽:写操作仅仅穿过一个网络交换机 读操作:选择其中得一个机架去读 block分布在整个集群上 5 HDFS 分布式环境搭建 5.1 官方安装文档地址 5.2 环境参数 Mac OS 10.14.4 JDK1.8 Hadoop 2.6.0-cdh5.7.0 ssh rsync 下载Hadoop 2.6.0-cdh5.7.0 jdk1.8/ # 根据你的环境变量进行修改 编辑 hadoop-env.sh 文件 export JAVA_HOME=${/usr/libexec/java_home} 由于我们要进行的是单节点分布式环境的搭建 ,所以还需要配置两个配置文件,分别是core-site.xml以及hdfs-site.xml Hadoop也可以在分布模式下的单节点上运行,其中每个Hadoop守护进程都在单独的Java进程中运行

    78420发布于 2021-10-18
  • 来自专栏每日分享java架构小知识

    hadoop分布式环境搭建

    Hadoop分布式搭建说明 如图片与文字不符合,以文字为准。 IP地址自行替换本机IP地址。 5.取消打勾选项:帮助改善 VMware Player(H)。 ? 6.打勾选项:桌面与开始菜单程序文件夹。 ? 7.选择:继续。 ? 8.等待几分钟安装程序 ? 9.选择:完成。 5.客户机操作系统中选择Linux(L),版本(V)选择CentOS 64位。 ? 6.修改:虚拟机名称(V):Hadoop集群(分布)。位置自定义,建议不要放在C盘。 ? 3.Hadoop集群搭建(分布式) 使用Putty登录Centos 1.通过VMware Player登录到系统,使用ifconfig命令查看eth0的IPv4地址:192.168.64.128 5.正在上传。 ? 6.上传完成后,在hadoop用户下输入ll,查看文件的完整性。 ? 进行SSH无密码验证配置 1.由于安装的是基本包,所以:ssh和rsync已经安装了。

    74720发布于 2020-08-06
  • 来自专栏Jed的技术阶梯

    Hbase分布式集群搭建

    -- 指定hbase中的数据存放的本地目录 可以设置为hdfs上的路径 但搭建分布式,没有必要 --> <property> hbase-env.sh关于是否使用自带的zookeeper的配置如下: export HBASE_MANAGES_ZK=true 因为我们搭建的是hbase分布式集群 hbase.zookeeper.property.dataDir</name> <value>/var/hbase/local/zookeeper</value> </property> </configuration> 5. leave the HBase Shell Version 1.2.6, rUnknown, Mon May 29 02:25:32 CDT 2017 hbase(main):001:0> hbase分布式集群搭建成功

    1.1K30发布于 2018-09-13
领券