首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏大数据成神之路

    Hive SQL经典优化案例

    HiveSQL经典优化案例一: 1.1 将要执行的查询(执行了 1个多小时才出结果): SELECT dt as DATA_DATE,STRATEGY,AB_GROUP,SOURCE, count 1.4 先看每个字段将会有多少分区(因为 Hive 表分区也不宜过多,一般一个查询语句涉及到的 hive分区 应该控制在2K内) jdbc:hive2://ks-hdp-master-01.dns.rightpad 新建分区表,并将原表数据插入新表: show create table dwb_v8sp_tmp.base_report_bystrategy_byab_source_column_zkl; jdbc:hive2 HiveSQL经典优化案例二: 问题描述:一个复杂的SQL,查询执行一段时间后报错:基本上是查不出来; 分析函数对于大表来说不是 hive的强项,这个时候我们将其分解成很多子集,并且合理利用 hive HiveSQL经典优化案例三: 如下SQL,用到了 PERCENTILE_APPROX 函数,问题描述:如下SQL,用到了 PERCENTILE_APPROX 函数,个人初步分析认为:由于用到该函数的次数太多

    1.8K30发布于 2020-09-27
  • 来自专栏Lansonli技术博客

    2021年大数据Hive(十二):Hive综合案例!!!

    Hive综合案例案例对视频网站的数据进行各种指标分析,为管理者提供决策支持. job.setMapOutputKeyClass(Text.class);       job.setMapOutputValueClass(NullWritable.class);       //本案例中没有 0:1);;     }   } ​​​​​​​四、准备工作 1、 创建 hive 表 创建表:youtubevideo_ori,youtubevideo_user_ori 创建表:youtubevideo_orc

    2K10发布于 2021-10-11
  • 来自专栏阿年的数据梦

    Hive常用函数案例实操

    13. percent_rank():这条数据在这个数据中的百分之多少,一般也是配合有序窗口使用

    1.2K50编辑于 2022-11-02
  • 来自专栏Jed的技术阶梯

    Hive案例01-行列转换

    介绍Hive查询中的行列转换的用法 1. 案例一:求数学成绩比语文成绩好的学生的ID (1) 需求分析 现有 hive 表 score, 内容如下: hive> select * from score; 1 1 yuwen 43 2 t2中的数据: 1 43 55 2 77 88 3 98 65 --(3) SELECT sid FROM t2 WHERE shuxue > yuwen; 结果: 1 2 2.案例二 :销售表的行列转换 (1) 需求 现有hive表sales,内容如下: hive> select * from sales; sales.y sales.season sales.sale 1991 案例三:学生成绩表的列转行 (1) 需求 有如下学生成绩表score: id sname math computer english 1 Jed 34 58

    2.4K10发布于 2018-09-13
  • 来自专栏Jed的技术阶梯

    Hive案例02-数值累加

    ---- 介绍Hive查询中数值累加的思路的方法 1. 需求分析 现有 hive 表 record, 内容如下: hive> select * from record; OK A 2015-01 5 A 2015-01 15 B 方法二:使用Hive窗口函数max()、sum() select userid, month, count, sum(count) over(partition by userid order by

    2.7K30发布于 2018-09-13
  • 来自专栏踏歌行的专栏

    Hive-1.2.1_05_案例操作

    sc(Sno int,Cno int,Grade int) 11 row format delimited fields terminated by ','; 12 13 # 查看有哪些表 14 hive 数据准备 相关数据 1 [yun@mini01 exercise]$ pwd 2 /app/software/hive/exercise 3 [yun@mini01 exercise]$ ll /app/software/hive/exercise/ 4 total 12 5 -rw-rw-r-- 1 yun yun 81 Jul 18 17:44 course.dat 6 -rw-rw-r 9 1,数据库 10 2,数学 11 3,信息系统 12 4,操作系统 13 5,数据结构 14 6,数据处理 15 [yun@mini01 exercise]$ cat /app/software/hive ://mini01:10000> load data local inpath '/app/software/hive/exercise/course.dat' into table course; #

    52420发布于 2020-10-15
  • hive导入导出实操案例

    Import 数据到指定 Hive 表中 注意:先用 export 导出后,再将数据导入。 hive (default)> import table student2 partition(month='201709') from '/user/hive/warehouse/export/student '; 2.数据导出Insert 导出 (1)将查询的结果导出到本地 hive (default)> insert overwrite local directory '/opt/module/datas /export/student' select * from student; (2)将查询的结果格式化导出到本地 hive(default)>insert overwrite local directory .txt; Hive Shell 命令导出 基本语法:(hive -f/-e 执行语句或者脚本 > file) [hadoop@hadoop102 hive]$ bin/hive -e 'select

    28210编辑于 2025-12-23
  • 来自专栏Jed的技术阶梯

    Hive案例04-员工部门表综合案例

    数据说明 (1) dept表 hive> select * from dept; # deptno(部门编号) dname(部门名称) loc(部门所在地区) 10 SALES CHICAGO 40 OPERATIONS BOSTON (2) emp表 hive hiredate) as min_date from emp) tmp on emp.hiredate = tmp.min_date; # 结果 SMITH 1980-12-17 # 注意,以下SQL在hive

    1K51发布于 2018-09-13
  • 来自专栏有关SQL

    Hive 入门 Group By 全案例【附代码】

    不明就里的读者可以看上一篇: Hive 的入门级 Group By 全案例 昨晚发文之后,有读者陆陆续续在星球发问了,脚本到底该怎么写? 环境: Hive: 2.7.7 Oracle SQL Developer Cloudera JDBC Driver 案例 - 1 : Group by 的常规化应用 select schema_id image 案例 - 2 : Group by 之 Grouping Sets 应用 select schema_id , type_desc , count(object_id 案例 - 3 : Group by 之 with cube select schema_id , type_desc , count(object_id) as object_count type_desc grouping sets((schema_id,type_desc),schema_id,type_desc,()) order by schema_id ,type_desc 案例

    1.3K20发布于 2019-12-25
  • 来自专栏Jed的技术阶梯

    Hive案例03-最高气温

    题目要求 现有hive表temp,其中只有一个字段(temp_record string),每一行代表某一天的气温,比如,2014010114代表,2014年1月1日的气温为14度,表中数据如下: hive 2010010216 2010010317 2010010410 2010010506 2015010649 2015010722 2015010812 2015010999 2015011023 要求:用hive

    49930发布于 2018-09-13
  • 来自专栏ShowMeAI研究中心

    图解大数据 | 实操案例-Hive搭建与应用案例

    1)下载Hive 安装Hive过程可以参考官方文档:https://cwiki.apache.org/confluence/display/Hive/GettingStarted。 Hive会自动加载 conf/hive-site.xml 配置文件,官方在 conf/hive-default.xml.template 提供了一个模板文件,里面是 Hive 加载不到 hive-site.xml /hive-3.1.3# cat conf/hive-site.xml <? 现在命令行使用Hive命令,将会自动根据 hive-site.xml 连接到 metastore 服务,运行Hive命令做一下测试: root@ubuntu:~/bigdata/hive-3.1.3# 以上就是Hive的完整搭建过程,小伙伴们就可以欢快地开始使用Hive了。 2.Hive应用案例案例对视频网站的数据进行各种指标分析,为管理者提供决策支持。

    1.1K31编辑于 2022-03-09
  • 来自专栏Jed的技术阶梯

    Hive案例05-学生成绩表综合案例

    数据说明 (1) student表 hive> select * from student; # 学生ID 学生姓名 性别 年龄 所在系 # sid sname 95013 Matthew male 21 CS 95014 Nicholas female 19 CS ...... (2) course表 hive Math 3 English 4 Physics 5 Chemistry 6 Biology (3) sc表 hive <1> 查询全体学生的学号与姓名 select sid, sname from student; <2> 查询选修了课程的学生姓名 select distinct sid from sc; (2) hive 4 95006 6 95007 4 95011 4 95012 4 95013 4 95015 4 95018 4 95019 5 95022 4 */ (3) hive

    1.5K40发布于 2018-09-13
  • 来自专栏有关SQL

    Hive 的入门级 Group By 全案例

    熟悉 sql server 一定不陌生,其实就是从 sql server 导了一张系统表 sys.objects 到 Hive 里面。 具体方法可以参考这里: 使用 Sqoop 将 30W+ MySQL 数据导入 Hive 这是 Hive 的第一篇公开文,讲解 group by 用法。 其余的文章存着,大家热情起来了,我再慢慢放。 扯远了,回归正题,这里是 5 道 Hive 的 group by 应用题,大家有兴趣先做着。我会在星球里公布正式答案。 已知表结构如下: ? by 子选项案例。 看这里: Spark SQL 与 Hive 的第一场会师 Spark 高难度对话 SQL Server 后记 周末两三事儿:大数据专栏以及百题SQL学习营

    81420发布于 2019-12-25
  • 来自专栏无题~

    Hive中的数据类型以及案例实操

    @ 目录 基本数据类型 集合数据类型 案例实操 基本数据类型 ? ? 对于Hive的String类型相当于数据库的varchar类型,该类型是一个可变的字符串,不过它不能声明其中最多能存储多少个字符,理论上它可以存储2GB的字符数。 集合数据类型 ? Hive有三种复杂数据类型ARRAY、MAP 和 STRUCT。 案例实操 假设某表有如下一行,我们用JSON格式来表示其数据结构。 在Hive下访问的格式为 { "name": "songsong", "friends": ["bingbing" , "lili"] , //列表Array, "

    1.2K42发布于 2020-10-10
  • 来自专栏小勇DW3

    Windows环境下安装Hadoop+Hive的使用案例

    -5.1.26-bin.jar(或其他jar版本)放在hive目录下的lib文件夹 3.配置hive环境变量,HIVE_HOME=F:\hadoop\apache-hive-2.1.1-bin 4.hive (1)创建配置文件 $HIVE_HOME/conf/hive-default.xml.template  -> $HIVE_HOME/conf/hive-site.xml $HIVE_HOME/conf /hive-env.sh.template  -> $HIVE_HOME/conf/hive-env.sh $HIVE_HOME/conf/hive-exec-log4j.properties.template 在数据库中生成对应的 hive 数据库 ?  启动Hivehive ? -------------------------------------------------------------- 创建表 以及 查询案例 hive上创建表: CREATE TABLE testB

    5.1K20发布于 2019-05-15
  • 来自专栏机器学习养成记

    HIVE案例:计算字符串格式日期相差天数

    如果HIVE表中的日期是以字符串形式进行存储,那如何计算两个日期相差天数呢?

    5.4K20发布于 2020-03-24
  • 来自专栏章鱼carl的专栏

    HiveHive简介

    存储原理: hive的数据存储在HDFS上,hive的表其实就是HDFS的目录,hive没有自己的数据存储格式,存储结构主要包括:数据库、文件、表、视图、索引。 hive默认可以直接加载text文本文件等。创建表时,指定hive的数据的列分隔符与行分隔符,hive即可解析数据。 表: Hive中的表和关系型数据库中的表在概念上很类似,每个表在HDFS中都有相应的目录用来存储表的数据,这个目录可以通过${HIVE_HOME}/conf/hive-site.xml配置文件中的hive.metastore.warehouse.dir 如果我有一个表table1,那么在HDFS中会创建/user/hive/warehouse/table1目录(这里假定hive.metastore.warehouse.dir配置为/user/hive/ 由于Hive的元数据需要不断的更新、修改,而HDFS系统中的文件是多读少改的,这显然不能将Hive的元数据存储在HDFS中。目前Hive将元数据存储在数据库中,如Mysql、Derby中。

    1.9K60编辑于 2022-03-31
  • 来自专栏Albert陈凯

    Hive Tips Hive使用技巧

    首先,Hive != SQL,虽然二者的语法很像,但是Hive最终会被转化成MapReduce的代码去执行,所以数据库的优化原则基本上都不适用于 Hive。 尽管看起来多了一条Hive QL,但是后两个任务需要扫描的数据将会变得很小。 四、UDF 在Hive中很多时候都需要做一些复杂的计算或者逻辑处理,这时候Hive本身作为一个通用框架没法很好地支持,所以有了UDF(User Defined Function)。 2、编写UDF 编写UDF十分简单,引入hive-exec包,继承org.apache.hadoop.hive.ql.exec.UDF类,实现evaluate方法即可,方法的输入和输出参数类型就是当你在 Hive中调用时的输入和返回值。

    1.5K80发布于 2018-04-08
  • 来自专栏个人分享

    Hive架构及Hive On Spark

    Hive的所有数据都存在HDFS中. (1)Table:每个表都对应在HDFS中的目录下,数据是经过序列化后存储在该目录中。 同时Hive也支持表中的数据存储在其他类型的文件系统中,如NFS或本地文件系统。 Hive的整体架构图如下: ? HiveMetastoreCatalog是Spark中对Hive Metastore访问的wrapper.HiveMetastoreCatalog通过调用相应的Hive API可以获得数据库中的表及表的分区 它会通过Hive client来访问MetaStore的元数据。

    2.3K21发布于 2018-09-06
  • 来自专栏LhWorld哥陪你聊算法

    Hive篇---Hive使用优化

    一.前述 本节主要描述Hive的优化使用,Hive的优化着重强调一个 把Hive SQL 当做Mapreduce程序去优化 二.主要优化点 1.Hive运行方式: 本地模式 集群模式 本地模式 开启本地模式 : set hive.exec.mode.local.auto=true; 注意: hive.exec.mode.local.auto.inputbytes.max默认值为128M 表示加载文件的最大值 对于小表可以直接从从hdfs直接拿到本地计算 2.并行计算 通过设置以下参数开启并行模式: set hive.exec.parallel=true; 注意:hive.exec.parallel.thread.number = true; (该参数为true时,Hive自动对左边的表统计量,如果是小表就加入内存,即对小表使用Map join)(默认左边的加载到内存中去) 相关配置参数: hive.mapjoin.smalltable.filesize sum,count时使用) 通过设置以下参数开启在Map端的聚合: set hive.map.aggr=true; 相关配置参数: hive.groupby.mapaggr.checkinterval

    3.9K11发布于 2018-09-13
领券