首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏云计算与大数据技术

    win10搭建hive3.0.0

    win10安装Hadoop3.0.0:https://blog.csdn.net/qq262593421/article/details/105927625 win10搭建hive3.0.0:https /dist/hive/hive-3.0.0/ 下载文件:apache-hive-3.0.0-bin.tar 二、配置环境变量 1、解压安装包到:D:\Hadoop\Hive\apache-hive 3、配置hive环境变量 变量名:HIVE_HOME 变量值:D:\Hadoop\Hive\apache-hive-3.0.0-bin 变量名:HIVE_CONF_DIR 变量值:D:\Hadoop \Hive\apache-hive-3.0.0-bin\conf # hive的lib库目录 export HIVE_AUX_JARS_PATH=D:\Hadoop\Hive\apache-hive-3.0.0 hive version hive 注意事项: hive的log4j和hadoop的log4j包冲突 jdbc连接需要配置 hive数据库的原数据要配置 hive官方文档 https://cwiki.apache.org

    87740发布于 2021-04-27
  • 来自专栏LhWorld哥陪你聊算法

    Hive篇--搭建Hive集群

    一.前述 Hive搭建分为三中方式 a)内嵌Derby方式 b)Local方式 c)Remote方式 三种方式归根到底就是元数据的存储位置不一样。 这种存储方式的弊端是在同一个目录下同时只能有一个hive客户端能使用数据库。 >      <configuration>   <property>     <name>hive.metastore.warehouse.dir</name>     <value>/user/hive_remote > <configuration> <property> <name>hive.metastore.warehouse.dir</name> <value>/user/hive dev/null & 客户端直接使用hive命令即可!!!

    1.3K40发布于 2018-09-13
  • 来自专栏浅枫沐雪

    hive集群搭建

    mysql 下载并安装MySQL官方的 Yum Repository wget -i -c http://dev.mysql.com/get/mysql57-community-release-el7-10 yum -y install mysql57-community-release-el7-10.noarch.rpm` 下面就是使用yum安装MySQL了 yum -y install mysql-community-server 创建一个账号:用户名为hive,密码为hive 或者 mysql> create user 'hive'@'%' identified by 'hive'; //创建一个账号:用户名为hive,密码为hive =/opt/hive-2.3.4 PATH=$PATH:$HIVE_HOME/bin export PATH HIVE_HOME 配置hive配置文件 编辑hive-env.xml文件 /hive –service metastore # 此时在hive的bin目录 启动hive 输入hive即可 # 您将看到如下信息 [root@hservice opt]# hive SLF4J:

    1.8K41发布于 2020-03-11
  • 来自专栏大数据数仓

    hive环境搭建

    1.下载Hive#下载wget https://dlcdn.apache.org/hive/hive-3.1.3/apache-hive-3.1.3-bin.tar.gz# 解压tar -zxvf apache-hive =$PATH:$HIVE_HOME/bin3.修改配置信息1.修改 hive-env.shcp hive-env.sh.template hive-env.shvim hive-env.shHADOOP_HOME =export HIVE_CONF_DIR=/home/hadoop/bigdata/hive/conf2.修改 hive-sitz.xml<? -dbType mysql mysql创建用户CREATE USER 'hive'@'%' IDENTIFIED BY 'hive';grant all privileges on hive.* to 'hive'@'%';flush privileges;6.启动hiveserver2cd ${HIVE_HOME}/bin;nohup ${HIVE_HOME}/bin/hiveserver2 >

    55730编辑于 2022-10-26
  • 来自专栏大数据成神之路

    hadoop上搭建hive

    ,slave2(hive客户端) hive建立在hadoop的HDFS上,搭建hive前,先需搭建hadoop 远程模式: 101.201.81.34(Mysql server meta server安装位置 ) 一、101.201.81.43 该主机上安装好mysql,并且建立一个hive数据库 (要开启远程访问) 二、在master上安装hive 1.安装hive 1)在apache官网上下载hive-2.1.0 包 2)sudo tar -zxvf apache-hive-2.1.0-bin.tar.gz 3)sudo cp -R apache-hive-2.1.0-bin /home/cms/hive 4)chmod -R 775 /home/cms/hive 5)sudo chown -R cms /home/cms/hive 2.修改/etc/profile加入HIVE_HOME的变量 HIVE_HOME/PATH /conf下的几个template模板并重命名为其他 cp hive-env.sh.template hive-env.sh cp hive-default.xml.template hive-site.xml

    1.6K30发布于 2019-04-25
  • 来自专栏全栈程序员必看

    10_hadoop之hive

    通过hadoop提供给的Browsing HDFS在浏览器查看文件存储情况。访问路径:http://[master_ip]:50070/

    32120发布于 2021-08-23
  • 来自专栏程序猿~

    Windows搭建Hive1.2.2

    环境 操作系统: Windows 7 JDK版本: 1.8.0_221 Hadoop版本: 2.6.0 (Hive依赖) Hive版本: 1.2.2 2. 前期准备 3.1 安装并启动完成HADOOP 详见: Windows搭建HDFS 2.6.0(附加搭建Hadoop) 4. 安装部署 4.1. 解压 4.2 执行安装hive . \bin\hive 排坑: 'hive' 不是内部或外部命令,也不是可运行的程序或批处理文件。 解决办法: 下载 hive.cmd(提取码6666) 放在 %HIVE_HOME%\bin 下 报错信息如下: E:\soft_work\apache-hive-1.2.2-bin\bin>hive /hive-log4j.properties hive> 5.

    1.1K10发布于 2020-10-28
  • 来自专栏不温卜火

    Hive快速入门系列(10) | Hive的查询语法

      我们光知道Hive,不会其语法怎么办呢?此篇博文专门为大家带来操作实例。 一. RLIKE子句是Hive中这个功能的一个扩展,其可以通过Java的正则表达式这个更强大的语言来指定匹配条件。 1. JOIN语句 8.1 等值JOIN   Hive支持通常的SQL JOIN语句,但是只支持等值连接,不支持非等值连接。 c.t_id left join score s on s.c_id = c.c_id left join student stu on s.s_id = stu.s_id;   大多数情况下,Hive 注意,Hive要求DISTRIBUTEBY语句要写在SORTBY语句之前。对于distribute by进行测试,一定要分配多reduce进行处理,否则无法看到distribute by的效果。

    2K20发布于 2020-10-28
  • 来自专栏北漂的我

    CentOS 6.9 中 搭建 Hive

    解压 hive 安装包 sudo tar -zxvf apache-hive-2.1.1-bin.tar.gz 2. 配置 Hive 环境变量 export HIVE_HOME=/opt/apache-hive-2.1.1-bin # 在下面这行末尾添加 :$HIVE_HOME/bin export PATH=$HOME 配置 /opt/apache-hive-2.1.1-bin/conf/hive-site.xml hive.metastore.uris中的 bigdata 含义为 metastore 所在的机器 /metastore.log 2>&1 & # 启动 hive server nohup hive --service hiveserver2 >> /opt/apache-hive-2.1.1-bin /hiveserver.log 2>&1 & # 查看hive metastore 和 hiveserver2 是否启动成功 ps aux | grep hive 10.

    81630发布于 2019-05-28
  • 来自专栏Throwable's Blog

    Windows10系统下Hadoop和Hive开发环境搭建填坑指南

    前提 笔者目前需要搭建数据平台,发现了Windows系统下,Hadoop和Hive等组件的安装和运行存在大量的坑,而本着有坑必填的目标,笔者还是花了几个晚上的下班时候在多个互联网参考资料的帮助下完成了Windows10 系统下Hadoop和Hive开发环境的搭建。 这篇文章记录了整个搭建过程中的具体步骤、遇到的问题和对应的解决方案。 环境准备 基于笔者的软件版本洁癖,所有选用的组件都会使用当前(2020-10-30)最高的版本。 软件 版本 备注 Windows 10 操作系统 JDK 8 暂时不要选用大于等于JDK9的版本,因为启动虚拟机会发生未知异常 MySQL 8.x 用于管理Hive的元数据 Apache Hadoop 小结 没什么事最好还是直接在Linux或者Unix系统中搭建Hadoop和Hive的开发环境比较合理,Windows系统的文件路径和权限问题会导致很多意想不到的问题。

    2K40发布于 2020-11-05
  • 来自专栏小火龙说数据

    「干货」Hive常用10大应用技巧『Hive系列2』

    解决痛点:对于工作中经常应用Hive,以及准备去面试的同学,相信此篇文章会让你有所收获。 01 Hive运行顺序 在应用Hive过程中,你是否有过这样的疑问? 10 哪些场景提供加速查询「limit场景」 众所周知,Hive查询是基于MR执行的,但调用Map/Reduce是存在时间成本的。 limit不生成Map/Reduce场景(推荐使用) Select * from A limit 10; Select * from A where ds = 20121212 limit 10; limit 生成Map/Reduce场景 Select * from A where ds = 20220101 and guid=’xxx’ limit 10; Select a from A limit 10; Select a from A where ds = 20220101 limit 10; 以上就是本期的内容分享,希望能让你对Hive有更深入的理解。

    2K10编辑于 2022-06-30
  • 来自专栏机器学习/数据可视化

    hive之路10-show命令

    table_name; -- 指定显示的分区 SHOW PARTITIONS table_name PARTITION(ds='2010-03-03'); -- (Note: Hive 0.6 and later) SHOW PARTITIONS table_name PARTITION(hr='12'); -- (Note: Hive 0.6 and later) SHOW PARTITIONS table_name PARTITION(ds='2010-03-03', hr='12'); -- (Note: Hive 0.6 and later EXTENDED [IN|FROM database_name] LIKE 'identifier_with_wildcards' [PARTITION(partition_spec)]; -- demo hive

    1.7K20发布于 2021-03-02
  • 来自专栏软件开发-青出于蓝

    Hive on spark的搭建记录 原

    1、搭建伪分布式的Hadoop 从hadoop下载Hadoop-2.7 etc/hadoop/,修改core-site.xml List-1.1 <configuration> <property> 2、安装Hive-2.1.1 从官网下载Hive-2.1.1 在conf下,"cp  hive-default.xml.template   hive-site.xml" 之后修改hive-site.xml 命令行执行hive命令,就进入Hive CLI了,之后可以执行创建表等操作。 3、Hive  on  park    因为Hive的计算引擎默认是map reduce,比较慢,我们想要将Hive的计算引擎设置为Spark。    这是最坑的部分。     命令行执行hive,进入hive  CLI,执行命令"set  hive.execution.engine;"可以看到当前正在使用的计算引擎。

    1.5K31发布于 2019-04-15
  • 来自专栏桥路_大数据

    Hive On LLAP搭建&常见问题

    Hive On LLAP搭建&常见问题 基本概述 Hive在2.0之后,推出一个新特性LLAP(Live Long And Process),可以显著提高查询效率。 环境搭建 首先编辑hive-site.xml,配置LLAP,这里hive.llap.daemon.service.hosts配置为运行在yarn上的LLAP服务名,这里可以自定义设置,但要与下一步中使用 hive命令生成的LLAP环境包中的服务名一致。 > <name>hive.llap.execution.mode</name> <value>all</value> </property> <property> <name>hive.llap.daemon.service.hosts 后话 至此,LLAP已经搭建完成,如果有帮助的,记得点赞、关注。

    1.2K20发布于 2021-01-29
  • 来自专栏python3

    基于docker快速搭建hive环境

    用户界面,Hive支持是Hive的Web UI,Hive命令行,HiveHD洞察(在Windows服务器)。 Hive工作原理 下图描述了Hive 和Hadoop之间的工作流程。 ? 下表定义Hive和Hadoop框架的交互方式: Step No. 10 Send Results执行引擎发送这些结果值给驱动程序。 Hadoop集群的搭建前面已经介绍了,链接如下: https://www.cnblogs.com/xiao987334176/p/13208915.html 由于使用的是jdk1.7,我需要升级到jdk1.8 shell测试 # /usr/local/hive/bin/hive hive> CREATE SCHEMA testdb; OK Time taken: 2.052 seconds hive> SHOW

    5K20发布于 2020-07-27
  • 来自专栏若是烟花

    Hadoop Hive Hbase Kylin 环境搭建

    | | MySQL | 5.7.17 | | Kylin | 1.6.0 | 以上全部运行、大概至少需要2GB内存 一、搭建 <name>dfs.replication</name> <value>1</value> </property> </configuration> 二、搭建 hive-default.xml cp hive-log4j2.properties.template hive-log4j2.properties 然后,需要初始化一下 hive的数据库表 schematool -dbType mysql -initSchema 三、搭建Hbase环境 安装Hbase(1.3.0) http://hbase.apache.org/ 下载地址 hbase.tmp.dir</name> <value>/home/lpe234/hbase-tmp</value> </property> </configuration> 四、搭建

    1.3K10发布于 2020-07-27
  • 来自专栏朱永胜的私房菜

    基于Docker搭建大数据集群(六)Hive搭建

    基于Docker搭建大数据集群(六)Hive搭建 前言 之前搭建的都是1.x版本,这次搭建的是hive3.1.2版本的。。 还是有一点细节不一样的 Hive现在解析引擎可以选择spark,我是用spark做解析引擎的,存储还是用的HDFS 我是在docker里面搭建的集群,所以都是基于docker操作的 一、安装包准备 ~ 2.12.9 三、环境准备 (1)解压hive压缩包 tar xivf apache-hive-3.1.2-bin -C /opt/hive/ (2)新建一个日志目录 mdkir /opt/hivehive的jline包替换到hadoop的yarn下 mv /opt/hive/apache-hive-3.1.2-bin/lib/jline-2.12.jar /opt/hadoop/hadoop /hive --service metastore & client节点 hive

    1.3K30编辑于 2023-08-17
  • 来自专栏dandelion1990的专栏

    单机搭建hadoop+hive+spark环境

    ; USE hive; CREATE USER 'hive'@'localhost' IDENTIFIED BY 'hive'; GRANT ALL ON hive.* TO 'hive'@'localhost ' IDENTIFIED BY 'hive'; GRANT ALL ON hive.* TO 'hive'@'%' IDENTIFIED BY 'hive'; FLUSH PRIVILEGES; 安装hadoop wget http://mirrors.shu.edu.cn/apache/hive/hive-2.3.4/apache-hive-2.3.4-bin.tar.gz tar -xzvf apache-hive /hive" export path="/home/user_name/hive/bin:$PATH" 配置文件 cd hive/conf cp hive-default.xml.template hive-site.xml # 复制hive/conf/hive-site.xml到spark/conf下 cp hive/conf/hive-site.xml sprak/conf # 复制mysql-connector-java.jar

    3.8K30发布于 2019-06-27
  • 来自专栏YO大数据

    Hive环境搭建 | 数据仓库工具搭建详细过程

    1.Hive简介 hive是基于Hadoop的一个数据仓库的机制。hive数据仓库工具能将结构化的数据文件映射为一张数据库表,并提供SQL查询功能,能将SQL语句转变成MapReduce任务来执行。 2.环境Hive安装 1.前置环境 对应的安装包可以再公众号我获取。在安装Hive之前,需要先确保Hadoop与MySQL是正常启动的,Hadoop与MySQL的搭建可以参[环境搭建的系列文章。 C /app #修改别名 mv apache-hive-3.1.2-bin hive-3.1.2 3.添加环境变量 vim /etc/profile #添加下面两行 export HIVE_HOME= /app/hive-3.1.2 export PATH=$PATH:$HIVE_HOME/bin #source /etc/profile 4.解决日志的Jar包冲突 cd /app/hive-3.1.2 cp mysql-connector-java-5.1.27.jar /app/hive-3.1.2 6.配置Metastore 在/app/hive-3.1.2/conf目录下新建hive-site.xml

    2.6K50编辑于 2022-05-31
  • 来自专栏Albert陈凯

    Hadoop数据分析平台实战——110Hive介绍和Hive环境搭建离线数据分析平台实战——110Hive介绍和Hive环境搭建

    离线数据分析平台实战——110Hive介绍和Hive环境搭建 Hive介绍 Hive是构建在Hadoop之上的数据仓库平台,设计目标就是将hadoop上的数据操作同SQL结合,让熟悉SQL编程的开发人员能够轻松的向 Hive架构 ? image.png Hive安装 Hive根据metastore的存储位置不同,分为三种安装模式: 内嵌模式,本地模式,远程模式。 Hive安装--Hive安装 安装步骤: 下载hive,下载地址:http://archive.cloudera.com/cdh5/cdh/5/hive-0.13.1-cdh5.3.6.tar.gz Hive Web界面安装 Hive提供了一个Web的操作客户端,一般我们通过该页面查看hive的信息,配置信息包括: hive.hwi.listen.host指定监听ip(默认0.0.0.0), hive.hwi.listen.port .* to 'hive'@'%' with grant option 9. 重启一下这个mysql服务。 10. 使用hive用户创建数据库并修改连接信息。

    1.3K80发布于 2018-04-08
领券