$cd .ssh $cp id_rsa.pub authorized_keys $ssh localhost #此时不需要输入密码,证明配置成功 安装与配置 安装 我的安装路径为/usr/local/hadoop -2/hadoop2,数据的存放路径为/usr/local/hadoop-2 下面的过程是将hadoop安装包存放在/usr/local/hadoop-2/hadoop2 $cd /usr/local $sudo mkdir hadoop-2 $sudo chown yang:yang hadoop-2/ #将hadoop-2的所属用户和用户组均改成yang,你在配置的时候,将yang可以改成你的用户名即可 $cd hadoop-2 $cp ~/下载/hadoop-2.4.0.tar.gz ./ $tar -zxvf hadoop-2.4.0.tar.gz $mv hadoop-2.4.0/ hadoop2 #计算pi $hadoop jar /usr/local/hadoop-2/hadoop2/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.4.0
property> 编辑dfshosts.exclude 增加需要下线的节点名称 > vim /usr/local/hadoop-2.7.3/etc/hadoop/dfshosts.exclude hadoop -2 , hadoop-2中的块将会被迁移到 hadoop-1中,前已完成之后Decommissioning datanodes将会消失然后就可以关闭hadoop-2中的服务了,如果需要在加入到集群中只需要去除 -2节点,下线之后在hadoop-2 > su hadoop > hadoop-daemon.sh stop datanode 修改hadoop-2配置文件vim hdfs-site.xml > vim Cache Used%: 100.00% Cache Remaining%: 0.00% Xceivers: 1 Last contact: Thu Jul 20 11:30:42 CST 2017 hadoop -2的容量就增加了然后重新让节点上线 vim /usr/local/hadoop-2.7.3/etc/hadoop/dfshosts.exclude # 清除 hadoop-2 # 更新节点 > hdfs
、安装部署 2.1 主机规划 主机名称 IP地址 安装节点应用 hadoop-1 172.20.2.203 namenode/datanode/nodemanager hadoop java.sh b.修改主机名添加hosts hostname hadoop-1 cat >>/etc/hosts<<EOF 172.20.2.203 hadoop-1 172.20.2.204 hadoop > <configuration> <property> <name>dfs.namenode.secondary.http-address</name> <value>hadoop-2:50090</ property> </configuration> EOF slaves(定义数据节点) cat >/usr/local/hadoop/etc/hadoop/slaves<<EOF hadoop-1 hadoop -2 hadoop-3 EOF 同样的步骤操作hadoop-2/3,建议将hadoop-1的文件直接分发至hadoop-2/3 2.3.2 格式化namenode 在NameNode机器上(hadoop
https://cwiki.apache.org/confluence/display/HADOOP/Hadoop+Java+Versions
8u101-linux-x64.tar.gz hadoop-2.7.3.tar.gz 服务器环境 服务器系统使用centos7.X 64位版本 # hadoop-1 192.168.1.101 # hadoop -2 192.168.1.103 hadoop-3 重启服务器使其修改生效,重启完成后会发现主机名已经改回来了,然后使用ping命令检查是否可以互相连通 > ping hadoop-1 > ping hadoop /authorized_keys # 修改文件权限 > ssh localhost # 此时使用ssh首次需要yes以下不用密码即可登录 让hadoop-1可以免密码登录到hadoop- linux-x64.tar.gz hadoop@hadoop-2:~ > scp /app/install/jdk-8u101-linux-x64.tar.gz hadoop@hadoop-3:~ 在hadoop > vim /usr/local/hadoop-2.7.3/etc/hadoop/slaves hadoop-2 hadoop-3 2, 文件 core-site.xml 改为下面的配置: > vim
PATH=\$PATH:/usr/local/zookeeper/bin EOF source /etc/profile.d/zookeeper.sh 1.4 同样方式配置其他服务器 可以将文件分发至hadoop <property> <name>hbase.zookeeper.quorum</name> <value>hadoop-1,hadoop </property> </configuration> EOF 修改regionservers cat>/usr/local/hbase/conf/regionservers<<EOF hadoop export PATH=\$PATH:/usr/local/hbase/bin EOF source /etc/profile.d/hbase.sh 2.3 同样方式配置其他服务器并启动服务 可以将文件分发至hadoop
hbase和hive使用最新的可能会编译失败,这一点需要注意,经测试hbase0.94.2和hive0.13.1可正常编译通过, 3,修改完毕后,执行编译 bin/mkdistro.sh -P hadoop -2 -DskipTests 或 mvn clean package assembly:single -P hadoop-2 -DskipTests 4,执行成功后,拷贝oozie-4.2.0/distro
component ** Bug FLUME-1282 - Maven 2构建flume 1.x失败的情况 FLUME-2232 - Flume build时增加了findbugs FLUME-2436 - 将hadoop -2设为默认构建文件 FLUME-2464 - 移除hadoop-2文件 FLUME-2786 - 停止flume-ng之前修改conf文件时,它将进入死锁状态 FLUME-2894 - Flume组件应按正确顺序停止
Hadoop集群所以我们在之前配置好的Hadoop集群下来配置整体的Hbase集群 服务器清单 $ hadoop-1 192.168.1.101 NameNode DataNode $ hadoop zookeeper-3.4.10/data clientPort=2181 initLimit=10 syncLimit=5 server.1=hadoop-1:2888:3888 server.2=hadoop 多个用“,”分割 --> <property> <name>hbase.zookeeper.quorum</name> <value>hadoop-1:2181,hadoop 2181</value> </property> </configuration> 增加子节点 > vim /usr/local/hbase-1.3.1/conf/regionservers hadoop
------------------------------------------------------------------ [WARNING] The requested profile "hadoop
IP地址 主机名 系统版本 1 172.20.2.222 cm-server centos7.3 2 172.20.2.203 hadoop-1 centos7.3 3 172.20.2.204 hadoop >/etc/hosts<<EOF #添加各个节点hosts解析 172.20.2.222 cm-server 172.20.2.203 hadoop-1 172.20.2.204 hadoop
/hadoop/bin:$PATH 127.0.0.1 localhost 192.168.56.11 hadoop-1 debian1 192.168.56.12 hadoop
二、安装部署 2.1 主机规划 序号 IP地址 主机名 系统版本 1 172.20.2.222 ambari-server centos7.3 2 172.20.2.203 hadoop-2 centos7.3 etc/hosts<<EOF #添加各个节点hosts解析 172.20.2.222 ambari-server 172.20.2.203 hadoop-1 172.20.2.204 hadoop
后来没办法,尝试使用“减号”来分隔,将所有的机器名都换成如下形式: IP地址 机器名(hostname) 192.168.1.101 hadoop-1 192.168.1.102 hadoop-2 192.168.1.103
Gupta 的精彩帖子http://bigdatanoob.blogspot.com/2013/09/connect-phoenix-to-secure-hbase-cluster.html 如何连接在 Hadoop Hadoop-2 配置文件存在于 Phoenix pom.xml 中。 phoenix 是否可以像 HBase API 一样灵活地处理具有任意时间戳的表?
这里必须指定 profile 为 hadoop-2 来支持 hadoop 2.x 版本 mvn clean package -Phadoop-2 -DskipTests -Pdist ?
hostnamectl set-hostname hive 修改服务器的host 和hadoop节点建立关联 > vim /etc/hosts 192.168.1.101 hadoop-1 192.168.1.102 hadoop
/hadooplibs/hadoop-2/pom.xml 将查出来的pom文件,修改对应hadoop版本,hive,hbase,pig等组件版本 注意使用(sed -e 's/2.3.0/2.2.0
hadoop fs -cat output/part-r-00000 结果显示: hadoop 1 hello 2 java 4 jsp 1 到这里,hadoop-2环境搭建结束,配置文件根据具体需求