首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏小道

    Hive参数

    hive.exec.mode.local.auto.inputbytes.max=50000000; (3)设置local mr的最大输入文件个数,当输入文件个数小于这个值的时候会采用local mr hive.exec.dynamic.partition.mode=nonstrict   (3)在所有执行MR的节点上,最大一共可以创建多少个动态分区。 local inpath '/opt/module/datas/ds2' into table ori_partitioned partition(p_time='20111230000011') ; (3) =false; 九、Hive配置项合集 参数 作用 hive.ddl.output.format hive的ddl语句的输出格式,默认是text,纯文本,还有json格式,这个是0.90以后才出的新配置 hive.exec.plan hive执行计划的文件路径,默认是null,会在运行时自动设置,形如hdfs://xxxx/xxx/xx; hive.exec.scratchdir hive用来存储不同阶段的

    2.1K30发布于 2021-04-13
  • 来自专栏大数据仓库建设

    hive mapreduce reducer

    hive参数配置详情可查官方文档:Hive Configuration+Properties 本文针对 reducer ,主要涉及一下三个参数: hive.exec.reducers.bytes.per.reducer In: Hive 0.2.0; default changed in 0.14.0 with HIVE-7158 (and HIVE-7917) Size per reducer. 官方默认值:1G 查看配置的默认值: hive> set hive.exec.reducers.bytes.per.reducer; hive.exec.reducers.bytes.per.reducer =1024000000 临时调参: hive> set hive.exec.reducers.bytes.per.reducer=15364000000; hive> set hive.exec.reducers.bytes.per.reducer 查看配置的默认值: hive> set hive.exec.reducers.max; hive.exec.reducers.max=1099 临时调参: hive> set hive.exec.reducers.max

    3.3K20发布于 2019-03-14
  • 来自专栏大数据杂货铺

    CDP中的Hive3系列之Hive性能

    性能的最佳实践 查看与配置集群、存储数据和编写查询相关的某些性能指南,以便您可以保护集群和相关服务、自动扩展资源以处理查询等。 /latest/hive-performance-tuning/topics/hive_improving_performance_using_partitions.html Hive 中的分桶表 如果您将数据从较早的 Apache Hive 版本迁移到 Hive 3,您可能需要处理影响性能的分桶表。 没有必要在 Hive 3 表中指定桶。在 CDP 中,Hive 3 隐式存储数据,并且不像早期版本(ACID V1)那样需要用户密钥或用户提供的存储桶编号。 例如: V1: CREATE TABLE hello_acid (load_date date, key int, value int) CLUSTERED BY(key) INTO 3 BUCKETS

    2K20发布于 2021-08-20
  • 来自专栏大数据成神之路

    Hive性能 | 数据倾斜

    往期回顾之Hive性能系列: Hive性能 | Fetch抓取 Map数 通常情况下,作业会通过input的目录产生一个或者多个map任务。 主要的决定因素有:input的文件总个数,input的文件大小,集群设置的文件块大小(目前为128M,可在hive中通过set dfs.block.size;命令查看到,该参数不能自定义修改); 举例: b) 多个小文件:假设input目录下有3个文件a,b,c大小分别为10m,20m,150m,那么hadoop会分隔成4个块(10m,20m,128m,22m),从而产生4个map数。 针对上面的问题3和4,我们需要采取两种方式来解决:即减少map数和增加map数。 =256123456 b) 每个任务最大的reduce数,默认为1009 hive.exec.reducers.max=1009 c)计算reducer数的公式 N=min(参数2,总输入数据量/参数1

    96410发布于 2020-11-06
  • 来自专栏大数据成神之路

    Hive性能 | Fetch抓取

    hive (default)> set hive.fetch.task.conversion=none; hive (default)> select * from score; hive (default )> select s_score from score; hive (default)> select s_score from score limit 3; ? hive (default)> set hive.fetch.task.conversion=more; hive (default)> select * from score; hive (default )> select s_score from score; hive (default)> select s_score from score limit 3; ? Reduce: 4 Cumulative CPU: 13.07 sec HDFS Read: 120749896 HDFS Write: 464 SUCCESS Stage-Stage-2: Map: 3

    76930发布于 2020-11-06
  • 来自专栏Spark学习技巧

    Hive on Spark参数姿势小结

    前言 Hive on Spark是指使用Spark替代传统MapReduce作为Hive的执行引擎,在HIVE-7292提出。 Hive on Spark的效率比on MR要高不少,但是也需要合理调整参数才能最大化性能,本文简单列举一些项。为了符合实际情况,Spark也采用on YARN部署方式来说明。 其值不宜设定过大,因为Hive的底层以HDFS存储,而HDFS有时对高并发写入处理不太好,容易造成race condition。根据我们的实践,设定在3~6之间比较合理。 Hive参数 绝大部分Hive参数的含义和方法都与on MR时相同,但仍有两个需要注意。 hive.merge.sparkfiles 小文件是HDFS的天敌,所以Hive原生提供了合并小文件的选项,在on MR时是hive.merge.mapredfiles,但是on Spark时会改成hive.merge.sparkfiles

    4.6K30发布于 2020-09-16
  • 来自专栏五分钟学大数据

    Hive SQL 参数与性能

    但是如果我们只局限于会使用Hive,而不考虑性能问题,就难搭建出一个完美的数仓,所以Hive性能是我们大数据从业者必须掌握的技能。本文将给大家讲解Hive参数与性能的一些方法及技巧。 1. JVM优化 JVM重用是Hadoop参数的内容,其对Hive的性能具有非常大的影响,特别是对于很难避免小文件的场景或task特别多的场景,这类场景大多数执行时间都很短。 =true 关于这些推测执行变量,还很难给一个具体的建议。 Hive的数据倾斜一般的处理方案: 常见的做法,通过参数: set hive.map.aggr=true; set hive.groupby.skewindata = ture; 当选项设定为 其他参数 开启CLI提示符前打印出当前所在的数据库名 set hive.cli.print.current.db=true; 让CLI打印出字段名称 hive.cli.print.header=true

    1.8K21编辑于 2022-04-07
  • 来自专栏岑玉海

    Hive Tuning(五) 标准清单

    Hive的标准清单,我们可以对照着来做我们的查询优化!

    851100发布于 2018-03-01
  • 来自专栏Hadoop实操

    0924-Hive on Tez性能

    Hive on Tez查询没有一个通用的方法,查询的性能取决于数据的大小、文件类型、查询设计和查询模式。 1 通用 有时从CDH升级到CDP后,会发现Hive on Tez作业会比老的MR或者Spark要慢,这往往是因为没有对Tez作业进行导致的,另外在老的CDH平台中,因为一般都持续稳定运行一段时间了 由以下两个属性控制: • hive.prewarm.enabled • hive.prewarm.numcontainers 7 通用Tez参数 在处理Hive on Tez查询性能问题时,可以优先检查以下参数 8 总结 Hive on Tez查询性能分析的第一步是检查HiveHive on Tez 服务的一些关键配置,然后对于一些SQL查询作业一般需要set一些参数来进行特定的性能,大部分参数在本文都列出来了 对于一些复杂SQL的,或者运行故障往往还需要对SQL的写法进行调整。

    1.9K20编辑于 2024-05-18
  • 来自专栏Lansonli技术博客

    2021年大数据Hive(十一):Hive

    Hive 一、本地模式 大多数的Hadoop Job是需要Hadoop提供的完整的可扩展性来处理大数据集的。不过,有时Hive的输入数据量是非常小的。 = 100000; --(3)有数据倾斜的时候进行负载均衡(默认是false) set hive.groupby.skewindata = true; 当选项设定为 true,生成的查询计划会有两个 3、笛卡尔积 尽量避免笛卡尔积,即避免join的时候不加on条件,或者无效的on条件,Hive只能使用1个reducer来完成笛卡尔积。 ​​​​​​​ 开启严格模式需要修改hive.mapred.mode值为strict,开启严格模式可以禁止3种类型的查询。 3)限制笛卡尔积的查询。对关系型数据库非常了解的用户可能期望在执行JOIN查询的时候不使用ON语句而是使用where语句,这样关系数据库的执行优化器就可以高效地将WHERE语句转化成那个ON语句。

    92820发布于 2021-10-11
  • 来自专栏肉眼品世界

    3万字史诗级 Hive 性能(建议收藏)

    Hive既包含 Hive 的建表设计方面,对 HiveHQL 语句本身的优化,也包含 Hive 配置参数 和 底层引擎 MapReduce 方面的调整 。 目录结构 为了不盲目地学习,我们需要先知道 Hive 的重要性:在保证业务结果不变的前提下,降低资源的使用量,减少任务的执行时间。 具体细节 好了, 下面正式开始谈论调过程中的细节。 Hive建表设计层面 Hive的建表设计层面,主要讲的怎么样合理的组织数据,方便后续的高效计算。 这里我们直接引用了《Hive性能实战》中数据倾斜部分的内容,让大家能够体系化学习,彻底掌握 。 参考资料 [1] 中国好胖子 《hive全方位指南》 [2] 林志煌 《Hive性能实战》

    6.4K23编辑于 2022-06-15
  • 来自专栏不温卜火

    Hive快速入门系列(18) | Hive性能 严格模式

      此次博主为大家带来的是Hive性能中的严格模式。 Hive提供了一个严格模式,可以防止用户执行那些可能意想不到的不好的影响的查询。    通过设置属性hive.mapred.mode值为默认是非严格模式nonstrict 。开启严格模式需要修改hive.mapred.mode值为strict,开启严格模式可以禁止3种类型的查询。 in which the Hive operations are being performed. 3. 限制笛卡尔积的查询。对关系型数据库非常了解的用户可能期望在执行JOIN查询的时候不使用ON语句而是使用where语句,这样关系数据库的执行优化器就可以高效地将WHERE语句转化成那个ON语句。 不幸的是,Hive并不会执行这种优化,因此,如果表足够大,那么这个查询就会出现不可控的情况。   好了,本次的分享到这里就结束了!!

    1.2K20发布于 2020-10-28
  • 来自专栏不温卜火

    Hive快速入门系列(16) | Hive性能 数据倾斜

      此次博主为大家带来的是Hive性能中的数据倾斜。 一. 合理设置Map及Reduce数 1.通常情况下,作业会通过input的目录产生一个或者多个map任务。 3.是不是保证每个map处理接近128m的文件块,就高枕无忧了? 答案也是不一定。 针对上面的问题2和3,我们需要采取两种方式来解决:即减少map数和增加map数; 二. 设置最大切片值为100个字节 hive (default)> set mapreduce.input.fileinputformat.split.maxsize=100; hive (default)> (2)每个任务最大的reduce数,默认为1009 hive.exec.reducers.max=1009 (3)计算reducer数的公式 N=min(参数2,总输入数据量/参数1) 4.2 调整

    99420发布于 2020-10-28
  • 来自专栏不温卜火

    Hive快速入门系列(17) | Hive性能 并行执行

      此次博主为大家带来的是Hive性能中的并行执行。   Hive会将一个查询转化成一个或者多个阶段。这样的阶段可以是MapReduce阶段、抽样阶段、合并阶段、limit阶段。 或者Hive执行过程中可能需要的其他阶段。默认情况下,Hive一次只会执行一个阶段。 通过设置参数hive.exec.parallel值为true,就可以开启并发执行。不过,在共享集群中,需要注意下,如果job中并行阶段增多,那么集群利用率就会增加。 set hive.exec.parallel=true; //打开任务并行执行 set hive.exec.parallel.thread.number=16; //同一个sql

    1.3K10发布于 2020-10-28
  • 来自专栏不温卜火

    Hive快速入门系列(19) | Hive性能 JVM重用

      此次博主为大家带来的是Hive性能中的JVM重用。    JVM重用是Hadoop参数的内容,其对Hive的性能具有非常大的影响,特别是对于很难避免小文件的场景或task特别多的场景,这类场景大多数执行时间都很短。   

    69620发布于 2020-10-28
  • 来自专栏不温卜火

    Hive快速入门系列(20) | Hive性能 推测执行

      此次博主为大家带来的是Hive性能中的推测执行。    </description> </property> 不过hive本身也提供了配置项来控制reduce-side的推测执行:默认是true <property> <name>hive.mapred.reduce.tasks.speculative.execution </description> </property>   关于这些推测执行变量,还很难给一个具体的建议。如果用户对于运行时的偏差非常敏感的话,那么可以将这些功能关闭掉。

    73820发布于 2020-10-28
  • 来自专栏大数据成长之路

    Hive性能之JVM重用(5)

    JVM重用是Hadoop参数的内容,其对Hive的性能具有非常大的影响,特别是对于很难避免小文件的场景或task特别多的场景,这类场景大多数执行时间都很短。 </description> </property> 我们也可以在hive当中通过 set mapred.job.reuse.jvm.num.tasks=10; 这个设置来设置我们的

    1.1K10发布于 2021-01-22
  • 来自专栏cwl_Java

    快速学习-Hive企业级

    第 9 章 企业级 9.1 Fetch 抓取 Fetch 抓取是指,Hive 中对某些情况的查询可以不必使用 MapReduce 计算。 )> select ename from emp; hive (default)> select ename from emp limit 3; 2)把 hive.fetch.task.conversion 开启严格模式需要修改 hive.mapred.mode 值为 strict,开启严格模式可以禁止 3 种类型的查询。 9.7 JVM 重用 JVM 重用是 Hadoop 参数的内容,其对 Hive 的性能具有非常大的影响,特别是对于很难避免小文件的场景或 task 特别多的场景,这类场景大多数执行时间都很短。 </description> </property> 关于这些推测执行变量,还很难给一个具体的建议。如果用户对于运行时的偏差非常敏感的话,那么可以将这些功能关闭掉。

    1.2K20发布于 2020-02-21
  • 来自专栏大数据成神之路

    Hive常用参数十二板斧

    使用相同的连接键 当对3个或者更多个表进行join连接时,如果每个on子句都使用相同的连接键的话,那么只会产生一个MapReduce job。 3). 尽量原子化操作 尽量避免一个SQL包含复杂逻辑,可以使用中间表来完成复杂的逻辑 3. 本地模式 有时hive的输入数据量是非常小的。 :hive.exec.reducers.bytes.per.reducer(每个reduce任务处理的数据量,默认为1000^3=1G) hive.exec.reducers.max(每个任务最大的reduce 原因 1)、key分布不均匀 2)、业务数据本身的特性 3)、建表时考虑不周 4)、某些SQL语句本身就有数据倾斜 ? 解决方案:参数调节 hive.map.aggr=true 11. 其他参数 开启CLI提示符前打印出当前所在的数据库名 set hive.cli.print.current.db=true; 让CLI打印出字段名称 hive.cli.print.header=true

    3.9K42发布于 2020-12-08
  • 来自专栏Spark学习技巧

    Hive常用参数十二板斧

    使用相同的连接键 当对3个或者更多个表进行join连接时,如果每个on子句都使用相同的连接键的话,那么只会产生一个MapReduce job。 3). 尽量原子化操作 尽量避免一个SQL包含复杂逻辑,可以使用中间表来完成复杂的逻辑 3. 本地模式 有时hive的输入数据量是非常小的。 :hive.exec.reducers.bytes.per.reducer(每个reduce任务处理的数据量,默认为1000^3=1G) hive.exec.reducers.max(每个任务最大的reduce 原因 1)、key分布不均匀 2)、业务数据本身的特性 3)、建表时考虑不周 4)、某些SQL语句本身就有数据倾斜 解决方案:参数调节 hive.map.aggr=true 11. 其他参数 开启CLI提示符前打印出当前所在的数据库名 set hive.cli.print.current.db=true; 让CLI打印出字段名称 hive.cli.print.header=true

    1.7K10编辑于 2022-03-14
领券