Skip to content

文件格式和压缩

1. 文件格式

Hive表数据的存储格式,可以选择text file、orc、parquet、sequence file等。其中text file和sequence file都是基于行存储的,orc和parquet是基于列式存储的。

2. 行列存储特点

与列式存储相对的是行式存储,下图是两者的对比:
Alt text

2.1 行存储的特点

查询满足条件的一整行数据的时候,列存储则需要去每个聚集的字段找到对应的每个列的值,行存储只需要找到其中一个值,其余的值都在相邻地方,所以此时行存储查询的速度更快。

2.2 列存储的特点

因为每个字段的数据聚集存储,在查询只需要少数几个字段的时候,能大大减少读取的数据量;每个字段的数据类型一定是相同的,列式存储可以针对性的设计更好的设计压缩算法。

3. Text文件

文本文件是Hive默认使用的文件格式,文本文件中的一行内容,就对应Hive表中的一行记录。
建表指定文件格式为文本文件:

sql
create table 表名
(字段声明)
stored as textfile;

4. ORC

ORC(Optimized Row Columnar)file format是Hive 0.11版里引入的一种列式存储的文件格式。ORC文件能够提高Hive读写数据和处理数据的性能。orc更多资料可以参考apache orc官网, orc文件的具体结构如下图所示:
Alt text 每个Orc文件由Header、Body和Tail三部分组成。

  1. Header内容为ORC,用于表示文件类型。
  2. Body由1个或多个stripe组成,每个stripe一般为HDFS的块大小,每一个stripe包含多条记录,这些记录按照列进行独立存储,每个stripe里有三部分组成,分别是Index Data,Row Data,Stripe Footer。
    • Index Data:一个轻量级的index,默认是为各列每隔1W行做一个索引。每个索引会记录第n万行的位置,和最近一万行的最大值和最小值等信息。
    • Row Data:存的是具体的数据,按列进行存储,并对每个列进行编码,分成多个Stream来存储。
    • Stripe Footer:存放的是各个Stream的位置以及各column的编码信息。
  3. Tail由File Footer和PostScript组成。File Footer中保存了各Stripe的真实位置、索引长度、数据长度等信息,各Column的统计信息等;PostScript记录了整个文件的压缩类型以及File Footer的长度信息等。

在读取ORC文件时,会先从最后一个字节读取PostScript长度,进而读取到PostScript,从里面解析到File Footer长度,进而读取FileFooter,从中解析到各个Stripe信息,再读各个Stripe,即从后往前读。
建表指明存储orc语法:

sql
create table orc_table
(column_specs)
stored as orc
tblproperties (property_name=property_value, ...);

可以看到保存文件内容不再指定列之间的分隔符,因为它是列式存储😁,ORC文件格式支持的参数如下:

参数默认值说明
orc.compressZLIB压缩格式,可选项:NONE、ZLIB,、SNAPPY
orc.compress.size262,144每个压缩块的大小(ORC文件是分块压缩的)
orc.stripe.size67,108,864每个stripe的大小
orc.row.index.stride10,000索引步长(每隔多少行数据建一条索引)

5. Parquet

Parquet文件是Hadoop生态中的一个通用的文件格式,它也是一个列式存储的文件格式。Parquet文件的格式如下图所示:
Alt text 上图展示了一个Parquet文件的基本结构,文件的首尾都是该文件的Magic Code,用于校验它是否是一个Parquet文件。中间由若干个Row Group和一个Footer(File Meta Data)组成。

  1. 每个Row Group包含多个Column Chunk,每个Column Chunk包含多个Page。以下是Row Group、Column Chunk和Page三个概念的说明:
    • 行组(Row Group):一个行组对应逻辑表中的若干行。
    • 列块(Column Chunk):一个行组中的一列保存在一个列块中。
    • 页(Page):一个列块的数据会划分为若干个页。
  2. Footer(File Meta Data)中存储了每个行组(Row Group)中的每个列快(Column Chunk)的元数据信息,元数据信息包含了该列的数据类型、该列的编码方式、该类的Data Page位置等信息。
  3. 建表语句语法:
sql
Create table parquet_table
(column_specs)
stored as parquet
tblproperties (property_name=property_value, ...);

支持的参数如下:

参数默认值说明
parquet.compressionuncompressed压缩格式,可选项:uncompressed,snappy,gzip,lzo,brotli,lz4
parquet.block.size134217728行组大小,通常与HDFS块大小保持一致
parquet.page.size1048576页大小

6. 表压缩

在Hive表中和计算过程中,保持数据的压缩,对磁盘空间的有效利用和提高查询性能都是十分有益的。

6.1 TextFile格式表压缩

若一张表的文件类型为TextFile,若需要对该表中的数据进行压缩,多数情况下,无需在建表语句做出声明。直接将压缩后的文件导入到该表即可,Hive在查询表中数据时,可自动识别其压缩格式,进行解压。
需要注意的是,在执行往表中导入数据的SQL语句时,用户需设置以下参数,来保证写入表中的数据是被压缩的。

sql
--SQL语句的最终输出结果是否压缩
set hive.exec.compress.output=true;
--输出结果的压缩格式(以下示例为snappy)
set mapreduce.output.fileoutputformat.compress.codec =org.apache.hadoop.io.compress.SnappyCodec;

6.2 ORC格式表压缩

若一张表的文件类型为ORC,若需要对该表数据进行压缩,需在建表语句中声明压缩格式如下:

sql
create table orc_table
(column_specs)
stored as orc
tblproperties ("orc.compress"="snappy");

6.3 Parquet格式表压缩

若一张表的文件类型为Parquet,若需要对该表数据进行压缩,需在建表语句中声明压缩格式如下:

sql
create table parquet_table
(column_specs)
stored as parquet
tblproperties ("parquet.compression"="snappy");

操作列式存储表需要注意的点

列式存储的表不能直接使用load命令进行加载文件到Hive表中,可以理解为load命令本质就是移动文件,load命令加载进来的表将使得Hive无法识别读取。正确做法是先load加载到一张普通表里面,在通过select ... insert...的sql进行导入到列式存储表中,底层通过MR执行来实现。怎么理解呢?可以查看列式存储完整的表结构,如下图,可以看出MR过程中有对应的列式存储的InputstreamFormat和OutputFormat来支持读取和写出。
Alt text

7. 计算过程中使用压缩

7.1 单个MR的中间结果进行压缩

单个MR的中间结果是指Mapper输出的数据,对其进行压缩可降低shuffle阶段的网络IO,可通过以下参数进行配置:

sql
--开启MapReduce中间数据压缩功能
set mapreduce.map.output.compress=true;
--设置MapReduce中间数据数据的压缩方式(以下示例为snappy)
set mapreduce.map.output.compress.codec=org.apache.hadoop.io.compress.SnappyCodec;

7.2 单条SQL语句的中间结果进行压缩

单条SQL语句的中间结果是指,两个MR(一条SQL语句可能需要通过MR进行计算)之间的临时数据,可通过以下参数进行配置:

sql
--是否对两个MR之间的临时数据进行压缩
set hive.exec.compress.intermediate=true;
--压缩格式(以下示例为snappy)
set hive.intermediate.compression.codec= org.apache.hadoop.io.compress.SnappyCodec;