一篇文章彻底掌握 Hive 中的 Order/Sort/Cluster/Distribute by和 Bucket 桶表

运维 数据库运维
本篇文章,我们来总结下,HIVE 中的 order/sort/cluster/distribute by 和 BUCKET 桶表。

[[434538]]

大家好,我是明哥!

本片文章,我们来总结下,HIVE 中的 order/sort/cluster/distribute by 和 BUCKET 桶表

1 ORDER BY

  • ORDER BY 会对 SQL 的最终输出结果数据做全局排序;
  • ORDER BY 底层只会有一个Reducer 任务 (多个Reducer无法保证全局有序);
  • 当然只有一个 Reducer 任务时,如果输入数据规模较大,会消耗较长的计算时间;
  • ORDER BY 默认的排序顺序是递增 ascending (ASC).
  • 示例语句:select distinct cust_id,id_no,part_date from ads_api_cda_basic_info_parquet_pt order by cust_id;

2 SORT BY

  • SORT BY 不是对 SQL 的最终输出结果数据做排序,而是对 MAP 端的输出数据,在进入 reducer 前,根据指定的字段进行排序;
  • SORT BY 不会影响 REDUCER 的个数;
  • SORT BY 只会保证每个 reducer 内部的数据的顺序性,而不会保证 SQL 最终输出结果的全局有序性;
  • 示例语句:select distinct cust_id,id_no,part_date from ads_api_cda_basic_info_parquet_pt SORT by cust_id;图片

3 DISTRIBUTE BY

  • DISTRIBUTE BY 指定了将 MAP 端的输出记录交给哪个 reducer 进一步处理的分发规则;
  • DISTRIBUTE BY 不会影响 REDUCER 的个数;
  • 具有相同的 Distribute By 字段的MAP端的输出数据,会被分发给同一个 reducer 进行处理 (默认是采用hash取模算法);
  • Distribute By 并不会保证每个 REDUCER 内部的所有记录的顺序性;
  • 示例语句:select distinct cust_id,id_no,part_date from ads_api_cda_basic_info_parquet_pt distribute by cust_id;图片

  • DISTRIBUTE BY 和 SORT BY 配合使用,可以保证每个 REDUCER 内部的所有记录的顺序性(此时,Distribute By 分区字段 和 SORT BY 排序字段,可以是不同的字段);
  • 示例语句:select distinct cust_id,id_no,part_date from ads_api_cda_basic_info_parquet_pt distribute by cust_id sort by id_no;
  • DISTRIBUTE BY 和 SORT BY 配合使用,并选用合适的 DISTRIBUTE BY 字段,可以解决以下问题:
    • Map输出的文件大小不均;
    • Reduce输出文件大小不均;
    • 小文件过多;
    • 文件超大;

4 CLUSTER BY

  • CLUSTER BY 等价于配合使用 DISTRIBUTE BY 和 SORT BY;
  • CLUSTER BY底层的 Distribute By 分区字段 和 SORT BY 排序字段,是同一个字段;
  • CLUSTER BY 不会影响 REDUCER 的个数;
  • 示例语句:select distinct cust_id,id_no,part_date from ads_api_cda_basic_info_parquet_pt cluster by cust_id;

CLUSTER BY in spark web ui

5 BUCKET 桶表

HIVE中有 BUCKET 桶表,桶表具有以下优势:

  • 桶表可以支持高效的 sampling 取样;
  • 桶表对高效的 mapside joins 的支持更好;
  • 声明桶表时,需要指定分桶字段和桶的个数(CLUSTERED BY(user_id) INTO 31 BUCKETS);
  • 桶表的写入操作,在底层执行时,会自动添加 CLUSTER BY 子语句 以按桶表声明时指定的分桶字段来分布数据;(如果是 0.x 或 1.x 的 HIVE 版本,需要配置参数 set hive.enforce.bucketing = true; HIVE 2.X 后,该参数被remove了,等价于总是TURE;)
  • 桶表的写入操作,在底层执行时,会有reducer,且reducer的个数,会自动使用声明桶表时指定的桶的个数;(如果是 0.x 或 1.x 的 HIVE 版本,需要配置参数 set hive.enforce.bucketing = true; HIVE 2.X 后,该参数被remove了,等价于总是TURE;)
  • 通过选用合适的分桶字段和分桶数,桶表可以有效管控表底层的小文件的个数,进而缓解数据倾斜问题和小文件问题;
  • 使用桶表来缓解数据倾斜问题和小文件问题时,所有的更改都在 DDL 这一层,不需要更改 DML 语句添加 CLUSTER/DISTRIBUTE BY 子语句,同时由于 DDL 是系统上线时或后续运维优化调整时的一次性的操作,增加了系统的弹性和运维优化的便利性;
  • 可以使用类似以下 DDL 语句来声明 BUCKET 桶表,类似以下DML语句来操作桶表:
  1. ## DDL 
  2. CREATE TABLE bucket_tableA(user_id BIGINT, firstname STRING, lastname STRING) 
  3. COMMENT 'A bucketed copy of user_info' 
  4. PARTITIONED BY(ds STRING) 
  5. CLUSTERED BY(user_id) INTO 31 BUCKETS; 
  6. ## DML 
  7. INSERT OVERWRITE bucket_tableA select * from xx; 

INSERT OVERWRITE bucket_tableA SPARK WEB UI

 

责任编辑:武晓燕 来源: 明哥的IT随笔
相关推荐

2015-07-15 17:09:48

HiveHadoop分布式文件系统

2013-04-15 10:59:08

iOS开发ARC版本说明

2017-08-22 16:20:01

深度学习TensorFlow

2017-07-20 16:55:56

Android事件响应View源码分析

2019-07-23 08:55:46

Base64编码底层

2021-04-07 13:28:21

函数程序员异步

2020-07-16 15:10:49

Pythonzip()可迭代对象

2021-11-30 20:12:00

FTP系统

2021-05-21 09:01:56

Python继承多态

2016-07-01 14:55:07

开源数据库

2021-05-18 09:00:28

Pythonclass

2021-08-12 14:19:14

Slice数组类型内存

2021-11-12 07:43:34

版本HDFS工具

2020-10-09 08:15:11

JsBridge

2017-09-05 08:52:37

Git程序员命令

2022-01-05 10:22:17

HiveAuthenticat认证

2018-04-09 16:35:10

数据库MySQLInnoDB

2022-01-15 10:02:03

Java Hashtable类 Java 基础

2021-11-17 10:11:08

PythonLogging模块

2023-05-12 08:19:12

Netty程序框架
点赞
收藏

51CTO技术栈公众号