尊龙凯时网址

基于 apache hudi 极致查询优化的探索实践 -尊龙凯时网址

2023-08-17,,

摘要:本文主要介绍 presto 如何更好的利用 hudi 的数据布局、索引信息来加速点查性能。

本文分享自华为云社区《华为云基于 apache hudi 极致查询的实践!》,作者:fi_mengtao。

背景

湖仓一体(lakehouse)是一种新的开放式架构,它结合了数据湖和数据仓库的最佳元素,是当下大数据领域的重要发展方向。

华为云早在2020年就开始着手相关技术的预研,并落地在华为云 fusioninsight mrs智能数据湖尊龙凯时网址的解决方案中。

目前主流的三大数据湖组件 apache hudi、iceberg、delta各有优点,业界也在不断探索选择适合自己的方案。

华为湖仓一体架构核心基座是 apache hudi,所有入湖数据都通过 apache hudi 承载,对外通过 hetuengine(presto增强版)引擎承担一站式sql分析角色,因此如何更好的结合 presto 和 hudi 使其查询效率接近专业的分布式数仓意义重大。查询性能优化是个很大的课题,包括索引、数据布局、预聚合、统计信息、引擎 runtime优化等等。本文主要介绍 presto 如何更好的利用 hudi 的数据布局、索引信息来加速点查性能。预聚合和统计信息我们将在后续分享。

数据布局优化

大数据分析的点查场景一般都会带有过滤条件,对于这种类型查询,如果目标结果集很小,理论上我们可以通过一定手段在读取表数据时大量跳过不相干数据,只读取很小的数据集,进而显著的提升查询效率。我们可以把上述技术称之为 dataskipping。

好的数据布局可以使相关数据更加紧凑(当然小文件问题也一并处理掉了)是实现 dataskipping的关键一步。日常工作中合理设置分区字段、数据排序都属于数据布局优化。当前主流的查询引擎 presto/spark 都可以对parquet文件做 rowgroup 级别过滤,最新版本甚至支持 page 级别的过滤;选取合适的数据布局方式可以使引擎在读取上述文件可以利用列的统计信息轻易过滤掉大量 rowgroup/page,进而减少io。

那么是不是 dataskipping仅仅依赖数据布局就好了?其实不然。上述过滤还是要打开表里每一个文件才能完成过滤,因此过滤效果有限,数据布局优化配合 fileskipping才能更好的发挥效果。

当我们完成数据布局后,对每个文件的相关列收集统计信息,下图给个简单的示例,数据经过排序后写入表中生成三个文件,指定点查 where a < 10 下图可以清楚的看出 a < 10的结果集只存在于 parquet1文件中,parquet2/parquet3 中 a 的最小值都比10大,显然不可能存在结果集,所以直接裁剪掉 parquet2和 parquet3即可。

这就是一个简单 fileskipping,fileskipping的目的在于尽最大可能裁剪掉不需要的文件,减少扫描io,实现 fileskipping有很多种方式,例如

min-max统计信息过滤、bloomfilter、bitmap、二级索引等等,每种方式都各有优缺点,其中 min-max 统计信息过滤最为常见,也是 hudi/iceberg/deltalake 默认提供的实现方式。

apache hudi核心能力

clustering

hudi早在 0.7.0 版本就已经提供了 clustering 优化数据布局,0.10.0 版本随着 z-order/hilbert高阶聚类算法加入,hudi的数据布局优化日趋强大,hudi 当前提供以下三种不同的聚类方式,针对不同的点查场景,可以根据具体的过滤条件选择不同的策略

关于 z-order、hilbert 具体原理可以查阅相关wiki,https://en.wikipedia.org/wiki/z-order 本文不再详细赘述。

metadata table(mdt)

metadata table(mdt):hudi的元数据信息表,是一个自管理的 hudi mor表,位于 hudi 表的 .hoodie目录,开启后用户无感知。同样的 hudi 很早就支持 mdt,经过不断迭代 0.12版本 mdt 已经成熟,当前 mdt 表已经具备如下能力

(1)column_stats/bloomfilter

上文我们介绍了数据布局优化,接下来说说 hudi 提供的 fileskipping能力。当前 hudi 支持对指定列收集包括min-max value,null count,total count 在内的统计信息,并且 hudi 保证这些信息收集是原子性,利用这些统计信息结合查询引擎可以很好的完成 fileskipping大幅度减少io。bloomfilter是 hudi 提供的另一种能力,当前只支持对主键构建 bloomfilter。bloomfilter判断不存在就一定不存在的特性,可以很方便进行 fileskipping,我们可以将查询条件直接作用到每个文件的 bloomfilter 上,进而过滤点无效的文件,注意 bloomfilter 只适合等值过滤条件例如where a = 10,对于 a > 10这种就无能为力。

(2)高性能filelist

在查询超大规模数据集时,filelist是不可避免的操作,在 hdfs 上该操作耗时还可以接受,一旦涉及到对象存储,大规模 filelist 效率极其低下,hudi 引入 mdt 将文件信息直接保存在下来,从而避免了大规模filelist。

presto 与 hudi的集成

hetuengine(presto)作为数据湖对外出口引擎,其查询 hudi 能力至关重要。对接这块我们主要针对点查和复杂查询做了不同的优化,下文着重介绍点查场景。在和 hudi 集成之前首先要解决如下问题

    如何集成 hudi,在 hive connector 直接魔改,还是使用独立的 hudi connector?
    支持哪些索引做 dataskipping?
    dataskipping 在 coordinator 侧做还是在 worker 端做?

问题1: 经过探讨我们决定使用 hudi connector承载本次优化。当前社区的 connector 还略优不足,缺失一些优化包括统计信息、runtime filter、filter不能下推等导致 tpc-ds 性能不是很理想,我们在本次优化中重点优化了这块,后续相关优化会推给社区。

问题2: 内部 hetuengine 其实已经支持 bitmap 和二级索引,本次重点集成了 mdt 的 column statistics和 bloomfilter 能力,利用 presto下推的 filter 直接裁剪文件。

问题3: 关于这个问题我们做了测试,对于 column 统计信息来说,总体数据量并不大,1w 个文件统计信息大约几m,加载到 coordinator 内存完全没有问题,因此选择在 coordinator 侧直接做过滤。

对于 bloomfilter、bitmap 就完全不一样了,测试结果表明 1.4t 数据产生了 1g 多的 bloomfilter 索引,把这些索引加载到 coordinator 显然不现实。我们知道 hudi mdt 的 bloomfilter 实际是存在 hfile里,hfile点查十分高效,因此我们将 dataskipping 下压到 worker 端,每个 task 点查 hfile 查出自己的 bloomfilter 信息做过滤。

点查场景测试

测试数据

我们采用和 clickhouse 一样的ssb数据集进行测试,数据规模1.5t,120亿条数据。

$ ./dbgen -s 2000 -t c
$ ./dbgen -s 2000 -t l
$ ./dbgen -s 2000 -t p
$ ./dbgen -s 2000 -t s

测试环境

1cn 3wn container 170gb,136gb jvm heap, 95gb max query memory,40vcore

数据处理

利用 hudi 自带的 hilbert 算法直接预处理数据后写入目标表,这里 hilbert 算法指定 s_city,c_city,p_brand, lo_discount作为排序列。

spacecurvesortinghelper
.orderdataframebysamplingvalues(df.withcolumn("year", expr("year((lo_orderdate))")), layoutoptimizationstrategy.hilbert, seq("s_city", "c_city", "p_brand", "lo_discount"), 9000)
.registertemptable("hilbert")
spark.sql("insert into lineorder_flat_parquet_hilbert select * from hilbert")

测试结果

使用冷启动方式,降低 presto 缓存对性能的影响。

ssb query

文件读取量

    对于所有 sql 我们可以看到 2x - 11x 的性能提升, fileskipping 效果更加明显过滤掉的文件有 2x - 200x 的提升。
    即使没有 mdt ,presto 强大的 rowgroup 级别过滤,配合 hilbert 数据布局优化也可以很好地提升查询性能。
    ssb模型扫描的列数据都比较少, 实际场景中如果扫描多个列 presto mdt hilbert 的性能可以达到 30x 以上。
    测试中同样发现了mdt的不足,120亿数据产生的mdt表有接近50m,加载到内存里面需要一定耗时,后续考虑给mdt配置缓存盘加快读取效率。

关于 bloomfilter 的测试,由于 hudi 只支持对主键构建 bloomfilter,因此我们构造了1000w 数据集做测试

spark.sql(
"""
|create table prestoc(
|c1 int,
|c11 int,
|c12 int,
|c2 string,
|c3 decimal(38, 10),
|c4 timestamp,
|c5 int,
|c6 date,
|c7 binary,
|c8 int
|) using hudi
|tblproperties (
|primarykey = 'c1',
|precombinefield = 'c11',
|hoodie.upsert.shuffle.parallelism = 8,
|hoodie.table.keygenerator.class = 'org.apache.hudi.keygen.simplekeygenerator',
|hoodie.metadata.enable = "true",
|hoodie.metadata.index.column.stats.enable = "true",
|hoodie.metadata.index.column.stats.file.group.count = "2",
|hoodie.metadata.index.column.stats.column.list = 'c1,c2',
|hoodie.metadata.index.bloom.filter.enable = "true",
|hoodie.metadata.index.bloom.filter.column.list = 'c1',
|hoodie.enable.data.skipping = "true",
|hoodie.cleaner.policy.failed.writes = "lazy",
|hoodie.clean.automatic = "false",
|hoodie.metadata.compact.max.delta.commits = "1"
|)
|
|""".stripmargin)

最终一共产生了8个文件,结合 bloomfilter skipping掉了7 个,效果非常明显。

后续工作

后续关于点查这块工作会重点关注 bitmap 以及二级索引。最后总结一下 dataskipping 中各种优化技术手段的选择方式。

    clustering中各种排序方式需要结合 column statistics 才能达到更好的效果。
    bloomfilter 适合等值条件点查,不需要数据做排序, 但是要选择高基字段,低基字段 bloomfilter 用处不大;另外超高基也不要选 bloomfilter,产出的 bloomfilter 结果太大。

点击关注,第一时间了解华为云新鲜技术~

基于 apache hudi 极致查询优化的探索实践的相关教程结束。

网站地图