ClickHouse与Hive的区别,终于有人讲明白了

大数据 Hadoop
ClickHouse目的在于压榨单机性能,并没有真正的分布式表,数据都在本地,这也使得ClickHouse不需要复杂的调度,直接在本机执行SQL即可。而Hive的数据都在HDFS上,在真正任务前需要依据数据分布确定更复杂的物理计划,然后将Spark程序调度到对应的Data Node上,调度的过程非常消耗时间。

一、Hive的数据文件

和ClickHouse不同,由于Hive本身并不存储数据,而是为HDFS上的文件赋予数据库表、列的语义,保存对应的元数据供查询时使用,因此Hive的数据文件存在多种类型

1、textfile

textfile(文本文件)是Hive中默认的数据文件,是一类基于纯文本的数据文件格式。在大数据时代之前的CSV、TSV都属于该类文件。这类文件的特点如下。

  • 按行存储,文件内的一个物理行对应数据表中的一行数据。
  • 行内以特殊的符号分列。
  • 纯文本保存,不需要特殊解编码器即可识别。
  • 受限于纯文本表现力的限制,复杂类型可能需要额外的信息才能正确解析(即单独的数据文件不足以保存所有信息),例如日期等。
  • 默认情况下无压缩。

文本文件由于其按行存储的特性,导致其在Spark中是性能最差的一种数据文件格式。文本文件通常由业务侧的程序直接生成,且在业务侧被大量使用。因此Hive默认情况下使用文本文件作为数据文件的存储格式,保证这些文本文件在导入大数据系统后可以不用转换而直接被Hive识别和处理。

2、Apache ORC

Apache ORC(Optimized Row Columnar,优化行列式)是Hive中一种列式存储的数据文件格式,ORC在textfile的基础上进行了大量的修改以优化大数据场景下的查询性能,ORC的主要特点如下。

  • 按列存储。
  • 二进制存储,自描述。
  • 包含稀疏索引。
  • 支持数据压缩。
  • 支持ACID事务。

3、Parquet

Hadoop Parquet是Hadoop生态中的一种语言无关的,不与任何数据计算框架绑定的新型列式存储格式。Parquet可以兼容多种计算框架和计算引擎,由于其优秀的兼容性,在生产中被大量使用。其主要特点如下。

  • 按列存储。
  • 二进制存储,自描述。
  • 包含稀疏索引。
  • 支持数据压缩。
  • 语言独立、平台独立、计算框架独立。

4、Parquet与ORC

Parquet和ORC格式有着很多的相同点,那么在使用时应当如何选择呢?

(1)  原则一:希望平台独立,更好的兼容性,选择Parquet

Parquet在设计时考虑了通用性,如果希望进行联邦查询或为了将数据文件交给其他计算引擎使用,那么应该选择Parquet。

(2)  原则二:数据量庞大,希望获得最强的查询性能,选择ORC

ORC针对HDFS进行了针对性的优化,当数据非常庞大且需对查询性能有要求时,务必选择ORC格式。ORC在大数据量下的性能一定强于Parquet,大量的实验证明了这一点。因此本书后续的性能比较都是基于ORC格式的Hive。

ORC的设计原则和ClickHouse类似,都是存储服务于计算的典范。这也提现了性能和通用性不可兼得。再次强调,架构设计没有银弹,有得必有失。不要试图设计各方面都优秀的架构,即使是Parquet,也为了通用性放弃了性能。

二、Hive的存储系统

Hive本身不提供存储,其数据都存储于HDFS(Hadoop Distribution File System,Hadoop分布式文件系统)上。HDFS是大数据中专用的分布式文件系统,专为大数据处理而设计。

三、Hive计算引擎与ClickHouse计算引擎的差异

Hive本身并不提供计算引擎,而是使用Hadoop生态的MapReduce或Spark实现计算。由于Spark更高层次的抽象,使得Spark的计算引擎的性能远高于MapReduce。两者之间的区别如下:

1、运行模式不同

ClickHouse是MPP架构,强调充分发挥单机性能,没有真正的分布式表,ClickHouse的分布式表只是本地表的代理,对分布式表的查询都会被转换为对本地表的查询。这导致ClickHouse在执行部分大表join时可能出现资源不足的情况。

Hive的数据存储于分布式文件系统,因此Hive的计算引擎Spark在执行计算任务时,需要依据数据分布进行调度。在必要时,Spark可以通过CBO将数据重新排序后再分散到多台机器执行,以实现复杂的查询。

ClickHouse适合简单的DW之上的即席查询。而Spark由于其分布式特性,导致其任务启动时间很长,因此不适合实现即席查询,但是对于大数据量的join等复杂查询时具备非常大的优势。

2、优化重点不同

ClickHouse的优化重点在如何提高单机的处理能力,而Spark的优化重点在于如何提高分布式的协作效率。

四、ClickHouse比Hive快的原因

需要再次强调的是,ClickHouse只是在DW即席查询场景下比Hive快,并没有在所有场景都比Spark快,详细的分析请参考第5章。本节对比的是,当ClickHouse和Hive都进行即席查询,ClickHouse比Hive快的原因。

1、严格数据组织更适合做分析

ClickHouse的数据组织相对于Hive更严格,需要用户在建表时制定排序键进行预排序。虽然Hive的ORC格式和ClickHouse的数据文件其实一定程度上是等价的,但是Hive的ORC格式并不要求数据存储前进行预排序。

在预排序的情况下,数据在写入物理存储时已经按照一定的规律进行了聚集,在理想条件下可以大幅度降低I/O时间,避免数据的遍历。Hive的ORC格式在这一块并没有严格要求,因此ORC的存储就已经比ClickHouse消耗更多的I/O来遍历数据了。而ClickHouse却可以通过实现预排序好的数据和良好的索引,直接定位到对应的数据,节省了大量的I/O时间。

2、更简单的调度

ClickHouse目的在于压榨单机性能,并没有真正的分布式表,数据都在本地,这也使得ClickHouse不需要复杂的调度,直接在本机执行SQL即可。而Hive的数据都在HDFS上,在真正任务前需要依据数据分布确定更复杂的物理计划,然后将Spark程序调度到对应的Data Node上,调度的过程非常消耗时间。

关于作者:陈峰,资深大数据专家和架构师,ClickHouse技术专家,滴普科技(2B领域独角兽)合伙人兼首席架构师。《ClickHouse性能之巅:从架构设计解读性能之谜》作者。

责任编辑:武晓燕 来源: 数仓宝贝库
相关推荐

2022-04-27 18:25:02

数据采集维度

2021-10-17 20:38:30

微服务内存组件

2020-11-03 07:04:39

云计算公有云私有云

2021-03-25 11:24:25

爬虫技术开发

2021-09-03 18:38:13

数据湖数据仓库

2021-10-12 18:31:40

流量运营前端

2021-12-03 18:25:56

数据指标本质

2021-08-31 19:14:38

技术埋点运营

2021-09-26 15:58:05

MySQL SQL 语句数据库

2022-05-01 22:09:27

数据模型大数据

2022-04-26 05:49:45

物联网OTIT

2021-01-26 16:17:42

人工智能机器学习智能语音

2021-01-26 10:17:48

智能语音大数据机器学习

2021-12-07 18:24:26

数据安全

2022-08-15 20:49:16

知识图谱网络大数据

2021-02-21 21:25:43

知识图谱

2022-11-01 18:21:14

数据埋点SDK

2022-03-08 18:53:46

大数据云边协同缘计算

2021-09-10 18:23:14

Hadoop

2022-08-15 19:24:35

图数据库图计算搜索
点赞
收藏

51CTO技术栈公众号