首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏全栈程序员必看

    Hadoop分布式安装_分布式安装

    使得环境变量生效: source ~/.bash_profile 验证java是否配置成功: java -v 详细请参考 blog.csdn.net/u010961759/…

    41920编辑于 2022-08-04
  • 来自专栏个人分享

    Hbase分布式

    然后启动hbase即可,但我发现查询时报错啊。。报错信息被刷掉了- -大概错误是:

    80730发布于 2018-09-06
  • 来自专栏软件开发-青出于蓝

    Spark之分布式搭建、分布式Hadoop、Hive安装

    的配置文件,参考: https://stackoverflow.com/questions/40603714/hive-is-not-allowed-to-impersonate-hive     Spark分布式的安装

    89250发布于 2019-04-15
  • 来自专栏zingpLiu

    Hadoop分布式搭建

    Icon name: computer-vm Chassis: vm Machine ID: a34d80dce9364980962f9d85ffb5e9c8 Last login: Sun Jul 21 16:45:14 2019 from 172.16.142.129 5 安装jdk1.8 5.1 说明 本次安装的是JDK1.8,具体版本为jdk-8u101 5.2 下载jdk-8u101-linux-x64.tar.gz [root@hadoop1 ~]# wget https://dl.cactifans.com/jdk/jdk-8u101-linux-x64 .tar.gz 5.3 解压到/usr/local/下 [root@hadoop1 ~]# tar -zxvf jdk-8u101-linux-x64.tar.gz -C /usr/local/ 5.4 8 安装spark 8.1 说明 用hadoop用户安装spark-2.4.3-bin-hadoop2.7.tgz。

    1K60发布于 2019-07-25
  • 来自专栏Golang开发

    Hadoop分布式配置

    环境变量配置 export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64 export PATH=$PATH:$JAVA_HOME/bin export HADOOP_HOME Hadoop 2.7.7 Subversion Unknown -r c1aad84bd27cd79c3d1a7dd58202a8c3ee1ed3ac

    91320发布于 2019-08-24
  • 来自专栏青灯古酒

    Hadoop分布式安装

    Hadoop分布式安装 安装环境:Centos7.5,只少2核4G 提前准备:Linux中要安装JDK8,Zookeeper-3.5.7 1. cd /home/software/ 8. 解压Hadoop安装包 tar -xvf hadoop-3.1.3.tar.gz 9.

    70480编辑于 2023-10-16
  • 来自专栏姜同学

    Hadoop分布式搭建

    下载Hadoop 8. 解压Hadoop tar -xvf hadoop-2.7.1_64bit.tar.gz 9.

    67620编辑于 2022-10-27
  • 来自专栏工作笔记精华

    hdfs分布式搭建,分布式模式下yarn的配置及测验

    [root@slave2 hadoop-2.9.1]# jps 69617 Jps 69312 DataNode 69487 SecondaryNameNode 69198 NameNode  (8)访问 http://192.168.2.130:50070,就能看到hadoop的界面 【分布式模式下,配置yarn】  (1)配置etc/hadoop/mapred-site.xml    先复制一个cp DataNode 69907 ResourceManager 70354 Jps 69487 SecondaryNameNode 70015 NodeManager 69198 NameNode  (5)测试分布式模式下的

    96510发布于 2019-03-05
  • 来自专栏Jed的技术阶梯

    Hadoop分布式集群搭建

    修改 core-site.xml 和 hdfs-site.xml 配置文件,配置分布式相关的内容 [root@repo hadoop]# vi core-site.xml <configuration jps 4368 Jps 3957 ResourceManager 3512 NameNode 3641 DataNode 4058 NodeManager 3805 SecondaryNameNode 8.

    1.2K10发布于 2018-09-13
  • 来自专栏Jed的技术阶梯

    Spark分布式集群搭建

    repo conf]# cp slaves.template slaves [root@repo conf]# vim slaves # 里面的内容原来为localhost,改为repo repo # 分布式就一台机器 ,用localhost也可以 # 但我们毕竟搭建的是分布式集群,注意,是集群 # 改成repo心里可能更相信它是一个分布式集群 (4) 配置SPARK_HOME环境变量 [root@repo conf export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin [root@repo conf]# source /etc/profile (5) 启动spark分布式集群 spark分布式集群搭建成功!

    1.8K10发布于 2018-09-13
  • 来自专栏开源心路

    hadoop分布式搭建01

    IPV6INIT="yes"    NM_CONTROLLED="yes"    ONBOOT="yes"    TYPE="Ethernet"    UUID="ce22eeca-ecde-4536-8cc2 -ef0dc36d4a8c"    IPADDR="192.168.1.44"       ###    NETMASK="255.255.255.0"      ###    GATEWAY="

    35210编辑于 2023-06-27
  • 来自专栏JavaEdge

    HDFS分布式环境搭建

    1 HDFS概述及设计目标 1.1 什么是HDFS: Hadoop实现的一个分布式文件系统(Hadoop Distributed File System),简称HDFS 源自于Google的GFS论文 论文发表于2003年,HDFS是GFS的克隆版 1.2 HDFS的设计目标: 非常巨大的分布式文件系统 运行在普通廉价的硬件上 易扩展、为用户提供性能不错的文件存储服务 HDFS官方文档地址 2 HDFS 剩余的副本就完全随机节点了 可以看出这个方案比较合理 可靠性:block存储在两个机架上 写带宽:写操作仅仅穿过一个网络交换机 读操作:选择其中得一个机架去读 block分布在整个集群上 5 HDFS分布式环境搭建 jdk1.8/ # 根据你的环境变量进行修改 编辑 hadoop-env.sh 文件 export JAVA_HOME=${/usr/libexec/java_home} 由于我们要进行的是单节点分布式环境的搭建 ,所以还需要配置两个配置文件,分别是core-site.xml以及hdfs-site.xml Hadoop也可以在分布模式下的单节点上运行,其中每个Hadoop守护进程都在单独的Java进程中运行

    47410编辑于 2021-12-07
  • 来自专栏云原生实践

    Hadoop单机分布式部署

    Hadoop 在单节点上以分布式模式运行,其中每个 Hadoop 守护进程在单独的 Java 进程中运行。 etc/hosts 在最末尾添加 192.168.0.9 master 2.上传jdk和hadoop的压缩包并解压 tar -xvzf hadoop-3.2.2.tar.gz tar -xvzf jdk-8u202 23535 SecondaryNameNode 25935 ResourceManager 查看HDFS web ui,端口9870 查看YARN web ui, 端口8088 到此hadoop单机分布式部署完成

    54420编辑于 2022-09-01
  • 来自专栏张恒的网络日志

    记hadoop分布式安装

    local/hadoop/share/hadoop/common/hadoop-common-3.3.0.jar 3. hadoop配置 此时hadoop已经是可以以单机方式运行,为了将hadoop配置成分布式

    69410发布于 2020-12-01
  • 来自专栏程序猿的大杂烩

    HDFS分布式环境搭建

    ---- HDFS分布式环境搭建 官方安装文档地址如下: http://archive.cloudera.com/cdh5/cdh/5/hadoop-2.6.0-cdh5.7.0/hadoop-project-dist cdh5.7.0/etc/hadoop]# vim hadoop-env.sh export JAVA_HOME=/usr/local/jdk1.8/ # 根据你的环境变量进行修改 由于我们要进行的是单节点分布式环境的搭建 </name> # 指定只产生一个副本 <value>1</value> </property> </configuration> 然后配置一下密钥对,设置本地免密登录,搭建分布式的话这一步是必须的 ECDSA key fingerprint is 63:74:14:e8:15:4c:45:13:9e:16:56:92:6a:8c:1a:84. 到此,我们分布式的hadoop集群就搭建完成了。 ---- HDFS shell操作 以上已经介绍了如何搭建分布式的Hadoop,既然环境已经搭建起来了,那要怎么去操作呢?

    79310发布于 2020-09-23
  • 来自专栏开源心路

    hadoop分布式搭建02

    承接hadoop分布式搭建01 3.安装Hadoop  版本 hadoop-2.4.1 3.1上传hadoop安装包 3.2解压hadoop安装包   mkdir /cloud   #解压到

    33420编辑于 2023-06-27
  • 来自专栏赵俊的Java专栏

    Hadoop 分布式环境搭建

    简介 Hadoop 实现了一个分布式文件系统(Hadoop Distributed File System),简称 HDFS。 本次搭建的是 Hadoop 分布式环境,即所有本机模拟运行所有节点。 获取 root 权限 为了操作方便,这里直接切换到 root 权限进行操作。 JDK 下载 到 Java 官网下载 JDK 的 1.8 以上的版本, 下载地址 解压 我下载的文件名为 jdk-8u151-linux-x64.tar.gz,然后解压: 12 cd ~ #切换到 tar -zxvf jdk-8u151-linux-x64.tar.gz 环境变量 编辑 /etc/profile,在最下面添加以下内容: 12 export JAVA_HOME=/root/jdk1.8.0

    97720发布于 2018-06-04
  • 来自专栏JavaEdge

    HDFS分布式环境搭建

    1 HDFS概述及设计目标 1.1 什么是HDFS: Hadoop实现的一个分布式文件系统(Hadoop Distributed File System),简称HDFS 源自于Google的GFS论文 论文发表于2003年,HDFS是GFS的克隆版 1.2 HDFS的设计目标: 非常巨大的分布式文件系统 运行在普通廉价的硬件上 易扩展、为用户提供性能不错的文件存储服务 HDFS官方文档地址 2 HDFS 剩余的副本就完全随机节点了 可以看出这个方案比较合理 可靠性:block存储在两个机架上 写带宽:写操作仅仅穿过一个网络交换机 读操作:选择其中得一个机架去读 block分布在整个集群上 5 HDFS分布式环境搭建 jdk1.8/ # 根据你的环境变量进行修改 编辑 hadoop-env.sh 文件 export JAVA_HOME=${/usr/libexec/java_home} 由于我们要进行的是单节点分布式环境的搭建 ,所以还需要配置两个配置文件,分别是core-site.xml以及hdfs-site.xml Hadoop也可以在分布模式下的单节点上运行,其中每个Hadoop守护进程都在单独的Java进程中运行

    78420发布于 2021-10-18
  • 来自专栏每日分享java架构小知识

    hadoop分布式环境搭建

    Hadoop分布式搭建说明 如图片与文字不符合,以文字为准。 IP地址自行替换本机IP地址。 8.等待几分钟安装程序 ? 9.选择:完成。完成安装VMware Player。 ? 6.修改:虚拟机名称(V):Hadoop集群(分布)。位置自定义,建议不要放在C盘。 ? 7.由于是虚拟的测试环境。故最大磁盘大小(GB)(S)选择默认值:20G。 3.Hadoop集群搭建(分布式) 使用Putty登录Centos 1.通过VMware Player登录到系统,使用ifconfig命令查看eth0的IPv4地址:192.168.64.128 2.输入:rpm -ivh jdk-8u101-linux-x64.rpm,安装java 8u101版本。

    74720发布于 2020-08-06
  • 来自专栏Jed的技术阶梯

    Hbase分布式集群搭建

    -- 指定hbase中的数据存放的本地目录 可以设置为hdfs上的路径 但搭建分布式,没有必要 --> <property> hbase-env.sh关于是否使用自带的zookeeper的配置如下: export HBASE_MANAGES_ZK=true 因为我们搭建的是hbase分布式集群 leave the HBase Shell Version 1.2.6, rUnknown, Mon May 29 02:25:32 CDT 2017 hbase(main):001:0> hbase分布式集群搭建成功

    1.1K30发布于 2018-09-13
领券