Hadoop运维记录

云计算 Hadoop
Hive是目前应用最多最广的SQL on Hadoop工具,近期很多专业的大数据公司推出了很多新的,基于列式或者内存热数据的SQL工具,像Impala,Tez,Spark等等,但是Hive仍然是目前使用率最高和普及面最广的SQL on Hadoop的工具。在以前淘宝罗李的报告中,淘宝90%的业务跑在Hive上面。

记录一些Hive的优化点,和能够提升的效率差异。

Hive是目前应用最多最广的SQL on Hadoop工具,近期很多专业的大数据公司推出了很多新的,基于列式或者内存热数据的SQL工具,像Impala,Tez,Spark等等,但是Hive仍然是目前使用率最高和普及面最广的SQL on Hadoop的工具。在以前淘宝罗李的报告中,淘宝90%的业务跑在Hive上面。暴风影音的比例更高一些,大概95%以上都是跑在Hive上面。尽管很多人对Hive有看法,效率低,查询慢,bug多。但是并不可否认hive是一个开创性的工具,提供了更多的想象空间。而且,在生产集群上的数据查询程序的开发效率,Hive要远远高于自己写MR。

在默认情况下,Hive的配置参数比较保守,所以效率会比较差一点,修改配置会让查询效率有比较大的提升,记录几个对查询效率影响比较重要的参数。

首先拿到一个hive要修改的就是他的元数据存储,默认情况下,Hive是用Derby内存数据库存储元数据,不明白,都是嵌入式数据库,Hive为啥不用SQLite呢,之前写过修改元数据存储的文章,不在赘述。修改元数据存储的传送门在这里。

Hive参数优化:

 

 

比较重要是头几个和后几个,尤其是最后两个,性能提升效果是最明显的。但是会同时开启更多的MR任务,这就需要一个平衡了。

嵌套SQL并行执行优化:

set hive.exec.parallel=true;

set hive.exec.parallel.thread.number=16;

效率可提升至少100%

某job需要11个stage:

非并行35分钟

并行8个job执行10分钟

并行16个job执行6分钟

Hive查询的优化:

一、数据量大的表和数据量小的表做关联的时候,把数据量小的表放到join前面去select。

原因是在 Join 操作的 Reduce 阶段,位于 Join 操作符左边的表的内容会被加载进内存,将条目少的表放在左边,可以有效减少发生内存溢出错误的几率。

二、Join优化

Join查找操作中如果存在多个join,且所有参与join的表中其参与join的key都相同,则会将所有的join合并到一个mapred程序中。

例:

SELECT a.val, b.val, c.val FROM a JOIN b ON (a.key = b.key1) JOIN c ON (c.key = b.key1) 在一个mapre程序中执行join

SELECT a.val, b.val, c.val FROM a JOIN b ON (a.key = b.key1) JOIN c ON (c.key = b.key2) 在两个mapred程序中执行join

Map join的关键在于join操作中的某个表的数据量很小

例:

SELECT /*+ MAPJOIN(b) */ a.key, a.value FROM a join b on a.key = b.key

三、用sum() group by的方式来替换count(distinct)。

四、排序优化

Order by 实现全局排序,一个reduce实现,效率低

Sort by 实现部分有序,单个reduce输出的结果是有序的,效率高,通常和DISTRIBUTE BY关键字一起使用(DISTRIBUTE BY关键字 可以指定map 到 reduce端的分发key)

CLUSTER BY col1 等价于DISTRIBUTE BY col1 SORT BY col1.

五、合并小文件

文件数目过多,会给 HDFS 带来压力,并且会影响处理效率,可以通过合并 Map 和 Reduce 的结果文件来尽量消除这样的影响

hive.merge.mapfiles = true是否和并 Map 输出文件,默认为 True

hive.merge.mapredfiles = false是否合并 Reduce 输出文件,默认为 False

hive.merge.size.per.task = 256*1000*1000合并文件的大小。

这里的参数没有写到上面的表格里是因为这是可以根据任务不同临时设置的,而不一定非要是全局设置。有时候全局设置了反而对大文件的操作有性能影响。

六、使用分区,RCFile,lzo,ORCFile等

Hive中的每个分区都对应hdfs上的一个目录,分区列也不是表中的一个实际的字段,而是一个或者多个伪列,在表的数据文件中实际上并不保存分区列的信息与数据。Partition关键字中排在前面的为主分区(只有一个),后面的为副分区

静态分区:静态分区在加载数据和使用时都需要在sql语句中指定

例:(stat_date='20120625',province='hunan')

动态分区:使用动态分区需要设置hive.exec.dynamic.partition参数值为true,默认值为false,在默认情况下,hive会假设主分区时静态分区,副分区使用动态分区;如果想都使用动态分区,需要设置set hive.exec.dynamic.partition.mode=nostrick,默认为strick

例:(stat_date='20120625',province)

七、使用外部表而尽量少用内部表,这主要从数据的安全性上考量。

本文出自 “实践检验真理” 博客,http://slaytanic.blog.51cto.com/2057708/1295222

 

责任编辑:王程程 来源: 51CTO博客
相关推荐

2016-12-13 13:15:49

运维

2019-03-19 08:41:38

Linux运维变更

2010-01-21 22:19:25

网络优化运维管理摩卡软件

2019-03-15 10:13:10

运维云计算运营

2013-03-29 09:15:08

IT运维运维人员运维工程师

2018-03-27 16:23:53

运维AI智能

2014-08-04 10:10:35

IT运维自动化运维

2018-08-16 08:37:03

机房运维硬件

2019-02-19 09:14:52

IT运维系统

2020-06-30 09:35:25

智能运维云架构IT运营

2017-10-13 13:14:35

互联网

2017-03-20 14:19:10

DevOps运维IT

2017-12-15 09:20:20

IT运维顺丰

2013-05-06 15:10:18

IT运维管理大数据

2015-10-30 10:40:45

意义数据运维运维

2011-11-24 21:59:55

运维企业外包

2022-10-20 17:37:46

运维智能管理平台

2011-03-21 14:43:42

2010-04-14 16:15:20

IT运维Mocha BSM摩卡软件

2017-04-26 09:40:00

点赞
收藏

51CTO技术栈公众号