一.前述 Hive中搭建分为三中方式 a)内嵌Derby方式 b)Local方式 c)Remote方式 三种方式归根到底就是元数据的存储位置不一样。 这种存储方式的弊端是在同一个目录下同时只能有一个hive客户端能使用数据库。 > <configuration> <property> <name>hive.metastore.warehouse.dir</name> <value>/user/hive_remote > <configuration> <property> <name>hive.metastore.warehouse.dir</name> <value>/user/hive dev/null & 客户端直接使用hive命令即可!!!
创建一个账号:用户名为hive,密码为hive 或者 mysql> create user 'hive'@'%' identified by 'hive'; //创建一个账号:用户名为hive,密码为hive =/opt/hive-2.3.4 PATH=$PATH:$HIVE_HOME/bin export PATH HIVE_HOME 配置hive配置文件 编辑hive-env.xml文件 xml version="1.0" encoding="UTF-8" standalone="no"?> <? #将hive.log日志的位置改为${HIVE_HOME}/tmp目录 hive.log.dir=/opt/hive-2.3.4/tmp/ 创建tmp目录 mkdir ${HIVE_HOME}/tmp /hive –service metastore # 此时在hive的bin目录 启动hive 输入hive即可 # 您将看到如下信息 [root@hservice opt]# hive SLF4J:
1.下载Hive#下载wget https://dlcdn.apache.org/hive/hive-3.1.3/apache-hive-3.1.3-bin.tar.gz# 解压tar -zxvf apache-hive =$PATH:$HIVE_HOME/bin3.修改配置信息1.修改 hive-env.shcp hive-env.sh.template hive-env.shvim hive-env.shHADOOP_HOME =export HIVE_CONF_DIR=/home/hadoop/bigdata/hive/conf2.修改 hive-sitz.xml<? xml version="1.0" encoding="UTF-<em>8</em>" standalone="no"?><? -dbType mysql mysql创建用户CREATE USER 'hive'@'%' IDENTIFIED BY 'hive';grant all privileges on hive.* to
,slave2(hive客户端) hive建立在hadoop的HDFS上,搭建hive前,先需搭建hadoop 远程模式: 101.201.81.34(Mysql server meta server安装位置 ) 一、101.201.81.43 该主机上安装好mysql,并且建立一个hive数据库 (要开启远程访问) 二、在master上安装hive 1.安装hive 1)在apache官网上下载hive-2.1.0 包 2)sudo tar -zxvf apache-hive-2.1.0-bin.tar.gz 3)sudo cp -R apache-hive-2.1.0-bin /home/cms/hive 4)chmod -R 775 /home/cms/hive 5)sudo chown -R cms /home/cms/hive 2.修改/etc/profile加入HIVE_HOME的变量 HIVE_HOME/PATH /conf下的几个template模板并重命名为其他 cp hive-env.sh.template hive-env.sh cp hive-default.xml.template hive-site.xml
环境 操作系统: Windows 7 JDK版本: 1.8.0_221 Hadoop版本: 2.6.0 (Hive依赖) Hive版本: 1.2.2 2. 前期准备 3.1 安装并启动完成HADOOP 详见: Windows搭建HDFS 2.6.0(附加搭建Hadoop) 4. 安装部署 4.1. 解压 4.2 执行安装hive . \bin\hive 排坑: 'hive' 不是内部或外部命令,也不是可运行的程序或批处理文件。 解决办法: 下载 hive.cmd(提取码6666) 放在 %HIVE_HOME%\bin 下 报错信息如下: E:\soft_work\apache-hive-1.2.2-bin\bin>hive /hive-log4j.properties hive> 5.
解压 hive 安装包 sudo tar -zxvf apache-hive-2.1.1-bin.tar.gz 2. 配置 Hive 环境变量 export HIVE_HOME=/opt/apache-hive-2.1.1-bin # 在下面这行末尾添加 :$HIVE_HOME/bin export PATH=$HOME /bin:$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$FLUME_HOME/bin:$HIVE_HOME/bin source ~/.bash_profile 8. 配置 /opt/apache-hive-2.1.1-bin/conf/hive-site.xml hive.metastore.uris中的 bigdata 含义为 metastore 所在的机器 xml version="1.0" encoding="UTF-8"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <!
07/2017 - Hive 2.2.0 05/2018 - Hive 3.0.0 08/2019 - Hive 3.1.2 ---- Hive环境搭建 安装Hive 官方文档: https://cwiki.apache.org /confluence/display/Hive/GettingStarted 首先需要准备好Java运行环境和Hadoop环境,Hadoop搭建可以参考如下文章: HDFS伪分布式环境搭建 Hadoop ,否则可能会出现不兼容的问题,例如报找不到类啥的错误,Apache版本和CDH版本配置方式都是一样的 为了让Hive能够正常连接MySQL8.x,需要准备一个8.x版本的JDBC驱动包,然后放到Hive xml version="1.0" encoding="UTF-8"? xml version="1.0" encoding="UTF-8"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?
1、搭建伪分布式的Hadoop 从hadoop下载Hadoop-2.7 etc/hadoop/,修改core-site.xml List-1.1 <configuration> <property> 2、安装Hive-2.1.1 从官网下载Hive-2.1.1 在conf下,"cp hive-default.xml.template hive-site.xml" 之后修改hive-site.xml 命令行执行hive命令,就进入Hive CLI了,之后可以执行创建表等操作。 3、Hive on park 因为Hive的计算引擎默认是map reduce,比较慢,我们想要将Hive的计算引擎设置为Spark。 这是最坑的部分。 命令行执行hive,进入hive CLI,执行命令"set hive.execution.engine;"可以看到当前正在使用的计算引擎。
Hive On LLAP搭建&常见问题 基本概述 Hive在2.0之后,推出一个新特性LLAP(Live Long And Process),可以显著提高查询效率。 环境搭建 首先编辑hive-site.xml,配置LLAP,这里hive.llap.daemon.service.hosts配置为运行在yarn上的LLAP服务名,这里可以自定义设置,但要与下一步中使用 ) File "/usr/lib64/python2.7/encodings/utf_8.py", line 16, in decode return codecs.utf_8_decode (input, errors, True) UnicodeDecodeError: 'utf8' codec can't decode byte 0xe6 in position 0: unexpected 后话 至此,LLAP已经搭建完成,如果有帮助的,记得点赞、关注。
中执行(有些查询没有MR任务,如:select * from table) Hadoop和Hive都是用UTF-8编码的 查询编译器(query complier),用云存储中的元数据来生成执行计划,步骤如下 Hadoop集群的搭建前面已经介绍了,链接如下: https://www.cnblogs.com/xiao987334176/p/13208915.html 由于使用的是jdk1.7,我需要升级到jdk1.8 环境说明 操作系统 docker版本 ip地址 配置 centos 7.6 19.03.12 192.168.31.229 4核8g 我们采用远程模式安装hive,也就是将Mysql数据库独立出来,将元数据保存在远端独立的 --collation-server=utf8mb4_unicode_ci 创建hive数据库 # docker exec -it hadoop-mysql /bin/bash root@hadoop-mysql :/# mysql -u root -pabcd@1234 mysql> CREATE DATABASE `hive` DEFAULT CHARACTER SET utf8mb4 COLLATE utf8mb4
| | MySQL | 5.7.17 | | Kylin | 1.6.0 | 以上全部运行、大概至少需要2GB内存 一、搭建 <name>dfs.replication</name> <value>1</value> </property> </configuration> 二、搭建 characterEncoding=UTF-8</value> </property> <property> <name>javax.jdo.option.ConnectionDriverName schematool -dbType mysql -initSchema 三、搭建Hbase环境 安装Hbase(1.3.0) http://hbase.apache.org/ 下载地址 hbase.tmp.dir</name> <value>/home/lpe234/hbase-tmp</value> </property> </configuration> 四、搭建
基于Docker搭建大数据集群(六)Hive搭建 前言 之前搭建的都是1.x版本,这次搭建的是hive3.1.2版本的。。 还是有一点细节不一样的 Hive现在解析引擎可以选择spark,我是用spark做解析引擎的,存储还是用的HDFS 我是在docker里面搭建的集群,所以都是基于docker操作的 一、安装包准备 ~ 2.12.9 三、环境准备 (1)解压hive压缩包 tar xivf apache-hive-3.1.2-bin -C /opt/hive/ (2)新建一个日志目录 mdkir /opt/hive 8`,这个解析会报错 <property> <name>hive.txn.xlock.iow</name> <value>true</value> <description /hive --service metastore & client节点 hive
; USE hive; CREATE USER 'hive'@'localhost' IDENTIFIED BY 'hive'; GRANT ALL ON hive.* TO 'hive'@'localhost ' IDENTIFIED BY 'hive'; GRANT ALL ON hive.* TO 'hive'@'%' IDENTIFIED BY 'hive'; FLUSH PRIVILEGES; 安装hadoop sbin/stop-yarn.sh;; *) echo "require start|stop" ;; esac exit 0 添加自动启动服务 export LC_ALL=en_US.UTF-8 /hive" export path="/home/user_name/hive/bin:$PATH" 配置文件 cd hive/conf cp hive-default.xml.template hive-site.xml createDatabaseIfNotExist=true&characterEncoding=UTF-8&useSSL=false</value> </property> <property
1.Hive简介 hive是基于Hadoop的一个数据仓库的机制。hive数据仓库工具能将结构化的数据文件映射为一张数据库表,并提供SQL查询功能,能将SQL语句转变成MapReduce任务来执行。 2.环境Hive安装 1.前置环境 对应的安装包可以再公众号我获取。在安装Hive之前,需要先确保Hadoop与MySQL是正常启动的,Hadoop与MySQL的搭建可以参[环境搭建的系列文章。 C /app #修改别名 mv apache-hive-3.1.2-bin hive-3.1.2 3.添加环境变量 vim /etc/profile #添加下面两行 export HIVE_HOME= /app/hive-3.1.2 export PATH=$PATH:$HIVE_HOME/bin #source /etc/profile 4.解决日志的Jar包冲突 cd /app/hive-3.1.2 <value>truevalue> property> configuration> 7.登录MySQL创建对应数据库 create database metastore; 8.
离线数据分析平台实战——110Hive介绍和Hive环境搭建 Hive介绍 Hive是构建在Hadoop之上的数据仓库平台,设计目标就是将hadoop上的数据操作同SQL结合,让熟悉SQL编程的开发人员能够轻松的向 修改配置信息,添加: vim /etc/my.cnf [mysql] default-character-set=utf8 [mysqld] character-set-server=utf8 lower_case_table_names=1 4. 创建mysql用户:create user 'hive' identified by 'hive'; 8. xml version="1.0" encoding="UTF-8" standalone="no"?> <?
win10安装Hadoop3.0.0:https://blog.csdn.net/qq262593421/article/details/105927625 win10搭建hive3.0.0:https /dist/hive/hive-3.0.0/ 下载文件:apache-hive-3.0.0-bin.tar 二、配置环境变量 1、解压安装包到:D:\Hadoop\Hive\apache-hive 3、配置hive环境变量 变量名:HIVE_HOME 变量值:D:\Hadoop\Hive\apache-hive-3.0.0-bin 变量名:HIVE_CONF_DIR 变量值:D:\Hadoop \Hive\apache-hive-3.0.0-bin\conf # hive的lib库目录 export HIVE_AUX_JARS_PATH=D:\Hadoop\Hive\apache-hive-3.0.0 hive version hive 注意事项: hive的log4j和hadoop的log4j包冲突 jdbc连接需要配置 hive数据库的原数据要配置 hive官方文档 https://cwiki.apache.org
5,安装Hive 上传解压 cd /opt/bdp/ rz tar -zxvf apache-hive-1.2.1-bin.tar.gz rm -rf pache-hive-1.2.1-bin.tar.gz 配置文件 vim/opt/bdp/apache-hive-1.2.1-bin/conf/hive-site.xml <? --默认为/user/hive/warehouse,用于配置Hive默认的数据文件存储路径, 这是一个HDFS路径。可按需调整。 bdp/apache-hive-1.2.1-bin/conf/hive-site.xml <? 交互方式 1.hive cli 2.beeline -u jdbc:hive2://bd1603:10000 -n root 3.hive -e|f beeline -e|f 7,Hive元数据
[喵咪大数据]Hive2搭建 说到Hadoop生态有一个不得不提的组件那就是<Hive>,Hive是基于Hadoop结构化存储引擎,能够存储海量的数据,Hive提供了类SQL的方式对数据进行查询检索汇总 附上: HIVE官网地址:Apache Hive TM 喵了个咪的博客:w-blog.cn 1.环境配置 hadoop集群环境需要提前配置好,可以在master上进行搭建也可以单独一台机器进行搭建这里使用一台独立的 centos7.X 64位服务器进行Hive服务搭建并且连接到之前的Hadoop集群 通过oneinstack配置环境 > mkdir -p /app/install && cd /app/install ##Hive安装路径 export HIVE_CONF_DIR=/usr/local/hive-2.3.0/conf ##Hive配置文件路径 在hive机器切换到hadoop用户创建hive createDatabaseIfNotExist=true&characterEncoding=UTF-8&useSSL=false</value> </property> <property
Hive是Hadoop生态中的一个重要组成部分,主要用于数据仓库。前面的文章中我们已经搭建好了Hadoop的群集,下面我们在这个群集上再搭建Hive的群集。 2.下载并配置Hive 2.1下载Hive 首先我们到官方网站,找到Hive的下载地址。 然后在master服务器上,wget下载hive的编译好的文件,我现在最新版是Hive 2.1.1 : wget http://mirror.bit.edu.cn/apache/hive/hive-2.1.1 :${JAVA_HOME}/lib:${JRE_HOME}/lib:/usr/local/hive/lib 2.3配置hive-env.sh 所有Hive的配置是在/usr/local/hive/conf 进入目录/usr/local/hive/bin vi hive-config.sh 在该文件的最前面加入以下配置: export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64
这是一篇工具类的文章,工欲善其事必先利其器,要分析调试hive源码,必须搭建一套hive的运行环境。还记得第一次搭建hive源码调试环境,用了一个月的时间,才完全跑通整个调试过程。 linux版本:centos 6.5 Java版本:jdk1.8 Hive版本:hive-2.1.1 Hadoop版本:hadoop-2.7.3 1、Jdk环境安装 下载 jdk-8u131-linux-x64 .tar.gz http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html ? 上传jdk安装包 解压安装包 tar -zxvf jdk-8u131-linux-x64.tar.gz 建立软链节 ln -s jdk1.8.0_131/ java 配置环境变量 vim /etc/ source /etc/profile 使生效 修改配置文件(搭建调试环境,伪分布就够用啦) cd $HADOOP_HOME/etc/hadoop/ vim core-site.xml ?