终于结束了!总结一下这次大赛.

why技术

共 9019字,需浏览 19分钟

 ·

2021-08-25 15:50

03d0c6abeefb676a7911e0da3c013b85.webp

你好呀,我是歪歪。

给大家分享一篇关于性能挑战赛的文章,我看了之后受益匪浅。

阿里云举办的大赛我从 2016 开始关注,每年的赛题我都仔细看了,并思考过解题思路。

虽然每年都是陪跑,但是能读懂排名靠前的参赛选手的比赛思路,也是一件非常有收获的事情。

共勉之。

前言

我参加了阿里云举办的《第三届数据库大赛创新上云性能挑战赛–高性能分析型查询引擎赛道》,传送门:

https://tianchi.aliyun.com/competition/entrance/531895/introduction

截止到 8 月 20 日,终于结束了漫长的赛程。

作为阿里云员工的我,按照赛题规定,只能参加初赛,不能参加复赛,出于不影响比赛的目的,终于等到了比赛完全结束,才动笔写下了这篇参赛总结。

照例先说成绩,这里贴一下排行榜,总共有 1446 只队伍,可以看到不少学生和其他公司的员工都参赛了。

b1de048a6074c681535aac4ba511df43.webp

我的成绩是第 14 名,内部排名也是进入了前五。

先简单点评下这次比赛吧。

首先是主办方的出题水平,还是非常高的。

  • 全程没有改过赛题描述
  • 全程没有清过榜单
  • 没有暗改过数据
  • 赛题做到了“题面描述简单,实现具有区分度”,让不同水平的参赛者都得到了发挥
  • 评测友好,失败不计算提交次数

这些点要大大点一个赞,建议其他比赛的主办方都来参考下,向这次出题的水准看齐。

不好的点,我也吐槽下:

  • 内部赛奖励太敷衍了,倒不如送我点公仔来的实在
  • 复赛延期了两周,让很多选手的肝有些吃不消

这篇文章我觉得得先明确一个定位,复赛和初赛技术架构相差是很大的,而我没有参加复赛,并没有发言权,所以就不去详细介绍最终的复赛方案了。

我的这篇文章还是以初赛为主,一方面聊的话题也轻松些,另一方面初赛的架构简单一些,可以供那些希望参加性能挑战赛而又苦于没有学习资料的同学、初赛没有找到优化点的同学一些参考。

赛题介绍eea6d6310845b12f7044dcda5c4ba7de.webp

https://tianchi.aliyun.com/competition/entrance/531895/introduction

题面可以说是非常简单的,其实就是实现一个查询第 N 大的数函数。

它的输入数据一共有两列:

803e225e497c0c9d4850857a8155659a.webp

第一行是列名,第二行开始是列的数据。

初赛测试数据:只有一张表 lineitem,只有两列 L_ORDERKEY (bigint), L_PARTKEY (bigint),数据量3亿行,单线程查询 10 次。

如果你还不理解这个题面是什么意思,建议去看下官方提供的评测 demo:

https://code.aliyun.com/analytic_db/2021-tianchi-contest-1

本地就能运行,debug 跑一遍,既能读懂题意,也能得到一个baseline(尽管它不能提交,会爆内存)。

另外需要格外注意的一点,千万不要漏看赛题描述

本题结合英特尔® 傲腾™ 持久内存技术(PMem),探索新介质和新软件系统上极致的持久化和性能

我们的方案一定需要围绕着存储介质的特性去设计,你问我持久内存 PMem 是啥?

老实说,我参赛之前对这个新的技术也是一知半解,但为了成绩,一定需要啃下这个技术,下面我就先介绍下 PMem。

持久内存 PMem 介绍

044482ff240d12211217b2c7dbfc515d.webp

提到内存(DRAM)、固态磁盘(SSD)、机械硬盘(HDD)这些概念,相信大多数人不会感到陌生,都能够道出这几个介质的访问速度差异。而持久内存 PMem 这个概念,相对而言不太为人所知,的确,它是近几年才兴起的一个概念。

持久内存 (PMem) 是驻留在内存总线上的固态高性能按字节寻址的内存设备。PMem 位于内存总线上,支持像 DRAM 一样访问数据,这意味着它具备与 DRAM 相当的速度和延迟,而且兼具 NAND 闪存的非易失性。NVDIMM(非易失性双列直插式内存模块)和 Intel 3D XPoint DIMM(也称为 Optane DC 持久内存模块)是持久内存技术的两个示例。

当我们在讨论这些存储介质时,我们有哪些关注点呢?

本节开头的金字塔图片的三条边直观地诠释了众多存储介质在造价、访问延时、容量三方面的对比。我下面从访问延时、造价和持久化特性三个方面做一下对比。

访问延时

内存 DRAM 的访问延时在 80~100ns,固态硬盘 SSD 的访问延时在 10~100us,而持久内存介于两者之间,比内存慢 10 倍,比固态硬盘快 10~100 倍。

造价

目前为止,将 PMem 技术正式商用的公司,貌似只有 Intel,也就是本次比赛的赞助商。

Intel optane DC persistent memory 是 Intel 推出的基于 3D Xpoint 技术的持久内存产品,其代号为 Apace Pass (AEP)。

所以大家今后如果看到其他人提到 AEP,基本心理就有数了,说的就是 PMem 这个存储介质。

在某电商平台看看这东西怎么卖的:

a2e31c140aaff0c0b97cdabde56d5913.webp

好家伙,128 * 4 条,卖 15000,折合下来,一根 PMem 就要 3000~4000。

同时我们也注意到,傲腾系列的 PMem 产品最高规格也就只有 512G,基本佐证了金字塔中的 Capacity 这一维度,属于内存嫌大,磁盘嫌小的一个数值。

持久化

这东西咱们的电脑可以装吗?

当然可以,直接插在内存条上就成。

我们都知道内存是易失性的存储,磁盘是持久化的存储,而介于两者之间的持久内存,持久化特性是什么样的呢?

这一点,不能望文生义地认为 PMem 就是持久化的,而是要看其工作模式:

Memory Mode 和 AppDirect Mode。

466a2108602c55a0a95d2a25865b0c2c.webp

本文就不过多展开介绍了这两种模式了。

简单来说,PMem 工作在 Memory Mode 时,是易失性的,这时候,你需要使用专门的一套系统指令去进行存取。

PMem 工作在 AppDirect Mode 时,可以直接把 PMem 当成一块磁盘来用,PMem 背后适配了一整套文件系统的指令,使得常规的文件操作可以完全兼容的跑在 PMem 之上。

我花了这么大的篇幅介绍 PMem,仍然只介绍了 PMem 特性非常小的一部分,最多让大家知道 PMem 是个啥,至于怎么利用好这块盘,我后边会花专门的一篇文章去介绍。

回到赛题,尽管 intel 提供了一套 PMem 专用的 API:

https://github.com/pmem/pmemkv-java

但由于比赛限定了不能引入三方类库。

a0cac776f8920a70e0a28f506a9b9484.webp

所以等于直接告诉了参赛选手,PMem 这块盘是工作在 AppDirect Mode 之下的,大家可以完全把它当成一块磁盘去存取。

这个时候,选手们就需要围绕 PMem 的特性,去设计存储引擎的架构,可能你在固态硬盘、常规文件操作中的一些认知会被颠覆。

这很正常,毕竟 PMem 的出现,就是为了颠覆传统存储架构而生的。

在不能直接操作 PMem 的情况下选手们需要设计 PMem 友好的架构。

赛题剖析

此次的数据输入方式和之前的比赛有很大的不同,选手们需要自行去解析文件,获得输入数据,同时进行处理,如何高效的处理文件是很大的一块优化点。

初赛一共 3 亿行数据,一共 2 列,内存一共 4 G,稍微计算下就会发现,全部存储在内存中是存不下的(不考虑压缩),所以需要用到 PMem 充当存储引擎。

查询的需求是查找到第 N 大的数,所以我们的架构一定是需要做到整体有序,允许局部无序。

赛题数据的说明尤为重要:

测试数据随机,均匀分布。

看过我之前文章的读者,应当敏锐地注意到了均匀分布这个关键词,这意味着我们又可以使用数据的头 n 位来分区了。

这里先给出初赛的最终架构,明确下如何串联各个流程:

4a615ba4989034bd9d50c543dcb73c20.webp

把大象放进冰箱总共需要三步,这道题目仅仅多了一步。

第一步:将输入文件从逻辑上分成 12 等分,这样 12 个线程可以并发读取输入文件。可以借助预处理程序,找到等分的边界。

第二步:每个线程都需要读取各自的文件分片,将读取到的文件流在内存中解析成 long,并且需要根据逗号、换行符来区分出两列数据。

第三步:读取到 long 之后,需要根据头 n 位进行分区,例如选择头 8 位,可以获得 2^(8-1) 即 128 个分区,因为比赛中的数据都是正数,所以减了一个符号位。这样分区之后,可以保证分区之间有序,分区内部无序。

第四步:获取第 N 大的数字时,可以直接根据分区内的数据量,直接定位到最终在哪个分区,这样就可以确保只加载一部分数据到内存中。t1_pn ~ t12_pn 在逻辑上组成了 partitionN,将 partitionN 的数据加载进内存之后,这道题就变成:查询无序数组中第 N 大数的问题了。

实现细节

以下的实现细节,我会给出实现难度,以供大家参考,打分标准:编码实现难度,容不容易想到等综合评分。

多线程按分区读文件(难度:2 颗星)

输入文件按行来分隔数据,第一时间联想到的就是 JDK 提供的 java.io.BufferedReader#readLine() 方法。

但稍微懂点文件 IO 基础的读者都应该意识到,文件 IO 要想快,一定得顺序按块读,所以 readLine 这种方法,想都不用想,必定是低效的。

那有人问了,博主,你给解释解释,什么叫按块读?

最简单的做法是按照固定 4kb 的 buffer 来读取文件,在内存中,自行判断逗号、换行符来区分两列数据,不断移动这个 4kb 的块,这就是按块读了。

if (readBufferArray[i] == '\n') {


if(readBufferArray[i] == ',') {
}

光是按块读还不够,为了充分发挥 IO 特性,还可以用上多线程,按照上图中的第一步,我的方案将文件分成了 12 份,这样 12 个线程可以齐头并进地进行读取和解析。

经过测试,多线程比单线程要快 70 多秒,所以没有使用多线程的选手,名次肯定不会高,这是一个通用优化点。

Long 转换(难度:1 颗星)

将文件中的字节读取到内存中,一定会经过 byte[] 到 long 的转换过程,千万不要小看这个环节,这可是众多选手分数的分水岭。

先来看下 demo 中给出的方案:

String[] columns = reader.readLine().split(",");
Long.parseLong(row[i]);

这里面存在两个问题

  • 1.先转 String,再转成 Long,多了一次无效转换
  • 2.Long.parseLong 方法比较低效,有很多无用判断

我贴一下我方案的伪代码:

long val = 0;
for (int i = 0; i < size; i++) {
    val = val * 10 + (readBuffer[i] - '0');
}

直接从字节数组中解析出 Long。

解析出 Long 主要还是为了落盘的时候进行数据对齐,主流方案应该都会解析。

按头 n 位分桶落盘(难度:1 颗星)

在读取到一个 Long 之后,我们可以按照数据的头 n 位,将其写入对应的分区文件中。

这其实也是一个通用的优化点,我在《华为云 TaurusDB 性能挑战赛赛题总结》也介绍过,分区之后,可以保证分区之间有序,即 partition1 中的任意数据一定小于 partition2 中的任意数据。

分区之间无序,主要是为了可以实现分区文件的顺序写。

至于 n 具体是多少,取决于我们想分多个区。

分区太多,会导致整体写入速度下降;分区太少,读取阶段加载的数据会过多,甚至可能导致内存放不下。

每个写线程维护自己的分区文件(难度:3 颗星)

在赛题剖析里面,我给出了我最终方案的流程图,里面有一个细节,每个读取线程从 1/12 个文件分片中读取解析到的 Long 数值,写入了自己线程编号对应的文件中,进行落盘。

并没有采用写入同一个分区文件这样的设计。对比下两种做法的利弊:

  • 写线程写入同一个分区文件。好处是读取阶段不需要聚合多份分区文件,坏处是多个线程写入同一个分区需要加锁,会导致竞争。
  • 写线程写入自己的分区文件。好处是不需要加锁写,坏处是读取阶段需要聚合读取。

也好理解,两个方案的优劣正好相反,稍微分析一下,由于初赛的查询只有 10 次,所以聚合的开销不会太大,再加上,我们本来就希望读取能做到并发,聚合没有那么可怕。反而是写入时加锁导致的冲突,会严重浪费 CPU。

该优化点,帮助我的方案从 80s 缩短到 50s。

分支预测优化(难度:4 颗星)

这次比赛因为有了 PMem,导致瓶颈根本不出在 IO 上。

以往比赛中,大家都是想尽一切方法,把 CPU 让给 IO。

而这次比赛,PMem 直接起飞了,导致大家需要考虑,怎么优化 CPU。

而 JVM 虚拟机的一系列机制中,就有很多注意事项,是跟 CPU 优化相关的。

在解析 Long 时,我们需要从 4kb 的读缓冲区中解析出 Long 数值,由于文件中的数值是以不定长的字节数组形式出现的,我们只能通过判断逗号、换行符来解析出数值,所以难免会写出这样的代码:

int blockReadPosition = 0;
for (int i = 0; i < size; i++) {
    if (readBufferArray[i] == '\n') {
        partRaceEngine.add(threadNo, val);
        val = 0;
        blockReadPosition = i + 1;
    } else if(readBufferArray[i] == ',') {
        orderRaceEngine.add(threadNo, val);
        val = 0;
        blockReadPosition = i + 1;
    } else {
        val = val * 10 + (readBufferArray[i] - '0');
    }
}

思考下,这段代码会有什么逻辑问题吗?

当然没有,相信很多选手也会这么判断。

但不妨分析下,输入文件大概有 10G 左右,所有的字节都会经过 if 判断一次,而实际上,大多数的字符并不是 \n 和 , 。

这会导致 CPU 被浪费在分支预测上。

我的优化思路也很简单,直接用循环,干掉 if/else 判断

for (int i = 0; i < size; i++) {
   byte temp = readBufferArray[i];
   do {
       val = val * 10 + (temp - '0');
       temp = readBufferArray[++i];
   } while (temp != ',');
   orderRaceEngine.add(threadNo, val);
   val = 0;
   // skip ,
   i++;
   temp = readBufferArray[i];
   do {
       val = val * 10 + (temp - '0');
       temp = readBufferArray[++i];
   } while (temp != '\n');
   partRaceEngine.add(threadNo, val);
   val = 0;
   // skip \n
}
readPosition += size;

一般来说,再没有办法去掉 if/else 的前提下,我们可以遵循的一个最佳实践是,将容易命中的条件放到最前面。

该优化帮助我从 48s 优化到了 24s。

另外,也可以利用数据特性,因为大多数数据是 19 位的数字,可以直接判断第 20 位是不是 , 或者 \n 从而减少分支预测的次数。

quickSelect(难度:4 颗星)

在查询阶段,查询一个分区内第 N 大的数,最简单的思路是排序之后直接返回,a[N],受到评测 demo 的影响,很多选手可能忽略了可以使用 quickSelect 算法。

Quick Select 你可能没听过,但快速排序(Quick Sort)你肯定有所耳闻,其实他们两个算法的作者都是 Hoare,并且思想也非常接近:

选取一个基准元素 pivot,将数组切分(partition)为两个子数组,比 pivot 大的扔左子数组,比 pivot 小的扔右子数组,然后递推地切分子数组。

Quick Select 不同于 Quick Sort 之处在于其没有对每个子数组做切分,而是对目标子数组做切分。

其次,Quick Select 与Quick Sort 一样,是一个不稳定的算法。

pivot 选取直接影响了算法的好坏,最坏情况下的时间复杂度达到了 O(n2)。

Quick Select 的 Java 实现如下:

public static long quickSelect(long[] nums, int start, int end, int k) {
        if (start == end) {
            return nums[start];
        }
        int left = start;
        int right = end;
        long pivot = nums[(start + end) / 2];
        while (left <= right) {
            while (left <= right && nums[left] > pivot) {
                left++;
            }
            while (left <= right && nums[right] < pivot) {
                right--;
            }
            if (left <= right) {
                long temp = nums[left];
                nums[left] = nums[right];
                nums[right] = temp;
                left++;
                right--;
            }
        }
        if (start + k - 1 <= right) {
            return quickSelect(nums, start, right, k);
        }
        if (start + k - 1 >= left) {
            return quickSelect(nums, left, end, k - (left - start));
        }
        return nums[right + 1];
    }

该优化帮我从 24s 优化到 17s。

查询阶段多线程读分区(难度:2 颗星)

前文提到了为了避免写入阶段的冲突,每个线程维护了自己的分区文件,在查询时,则需要聚合多个线程的数据。

这个时候不要忘记也可以多线程读取,因为初赛的评测程序是单线程测评的,IO 无法打满,需要我们控制多线程,充分利用 IO。

该优化帮我从 17s 优化到了 15s。

循环展开(难度:4 颗星)

尽管得知我们可以知道字节数组的长度,从而用循环来解析出 Long,但根据 JMH 的优化项来看,手动展开循环,可以让程序更加地快,例如像下面这样。

a3027914e505789008adde5e2546a15a.webp

这样的优化大概仅仅能提升 1s~2s,甚至不到,但越是到前排,1~2s 的优化就越会显得弥足珍贵。

总结

还有很多之前我提到过的一些通用优化技巧,例如顺序读写、读写缓冲、对象复用等等,就不在这里继续赘述了,尽管 PMem 和固态硬盘这两种介质有一定的差异,但这些优化技巧依旧是通用的。

因为这次比赛,IO 的速度实在是太快了,导致优化的方向变成如何优化 CPU,合理分配 CPU,让 CPU 更多地分配给瓶颈操作,这是其他比赛中没有过的经历。

还有一些点是通过调参来实现的,例如文件分片数,读写缓冲区的大小,读写的线程数等等,也会导致成绩相差非常大,这就需要不断地肝,不断地 benchmark 了。

不光是成功的优化点值得分享,也拿一个失败的优化分享一下,例如,将一半的数据存储在内存中,最终发现,申请内存的时间,倒不如拿去进行文件 IO,最终放弃了,可以见得在合理的架构设计下,PMem 的表现的确彪悍,不输于内存存取。

这次 ADB 的性能挑战赛,虽然只参加了初赛,但收获的技能点还是不少的。

印象最深的便是 PMem 这块盘的表现和我理解中的 SSD 还是有一定差距的,导致之前的一些经验不能直接在这场比赛中运用。

我也大概了解了很多复赛前排选手使用到了很多的奇技淫巧,每一个看似奇葩的优化点背后,可能都蕴含着该选手对操作系统、文件系统、编程语言等方面超出常人的认知,值得喝彩。

感到遗憾的地方还是有的。

这次比赛只能让 PMem 工作在 APP Direct 模式下,没有能够真正做到颠覆性。

如果有一场比赛,能够支持 Memory Mode,那我应该能收获到对持久内存更加深刻的认知。

我一直反复安利我的读者尽可能地参加各类性能挑战赛,特别是在校生、实习生或者刚进入职场的新人,这种比赛是实践的最好机会,看书不是。

好了,最后,我将我的代码开源在了 github:

https://github.com/lexburner/2021-tianchi-adb-race




推荐👍 :几行烂代码,我赔了16万。

推荐👍 :吴某凡表示这题他熟。

推荐👍 :这题答案不在源码里...

推荐👍 :就这样,我走完了程序员的前五年...

推荐👍 :Java如何绑定线程到指定CPU上执行?

我是 why,你也可以叫我小歪,一个主要写代码,经常写文章,偶尔拍视频的程序猿。

欢迎关注我呀。

浏览 69
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报