Doris开发手记2:用SIMD指令优化存储层的热点代码

database

最近一直在进行Doris的向量化计算引擎的开发工作,在进行CPU热点排查时,发现了存储层上出现的CPU热点问题。于是尝试通过SIMD的指令优化了这部分的CPU热点代码,取得了较好的性能优化效果。借用本篇手记记录下问题的发现,解决过程一些对于C/C++程序性能问题的一些解决思路,希望各位也能有所收获。

1.热点代码的发现

最近在进行Doris的部分查询调优工作,通过perf定位CPU执行热点时,发现了以下的热点部分:

这里通过perf可以看到,将近一半的CPU耗时损耗在BinaryDictPageDecoder::next_batchBinaryPlainPageDecoder::next_batch这两个函数上。这两部分都是字符串列进行数据读取的解码部分,所以我们得研读一下这部分代码,来看看是否有可能得优化空间。

通过Perf进一步进入函数之中,看看哪部分占用了大量的CPU。由上图可以看到大量的CPU耗时都在解码时的内存分配之上了。尤其是int64_t RoundUpToPowerOf2这个函数的计算,这个函数是为了计算内存分配时按照对齐的内存分配的逻辑。

哪儿来的内存分配

这里得先了解Doris在Page级别是如何存储字符串类型的。这里有两种Page:

  • DictPage

    字典编码,适合在字符串重复度较高的数据存储。Doris会将字典写入PlainPage之中,并记录每一个字符串的偏移量。而实际数据Page之中存储的不是原始的字符串了,而是偏移量了。而实际解码的时候,则需要分配内存,并从字典之中将对应偏移量的内存拷贝出来。这就是上面代码热点产生的地方。

  • PlainPage

    直接编码,适合在字符串重复度不高时。Doris会自动将DictPage转为PlainPage。而实际解码的时候,则需要分配内存,并将PlainPage的内容拷贝出来。这也是上面代码热点产生的地方。

无论是DictPage与PlainPage,解码流程都是这样。Doris每次读取的数据量是1024行,所以每次的操作都是

  • 取出一行数据
  • 通过数据长度,计算分配对齐内存长度
  • 分配对应的内存
  • 拷贝数据到分配的内存中

2.使用SIMD指令解决问题

好的,确认了问题,就开始研究解决方案。从直觉上说,将1024次零散的内存分配简化为一次大内存分配,肯定有较好的性能提升。

但是这样会导致一个很致命的问题:批量的内存分配无法保证内存的对齐,这会导致后续的访存的指令性能低下。但是为了保证内存的对齐,上面提到的尤其是int64_t RoundUpToPowerOf2这个函数的计算是无法绕过的问题。

那既然无法绕过,我们就得想办法优化它了。这个计算是一个很简单的函数计算,所以笔者尝试是否能用SIMD指令优化这个计算流程。

2.1 什么是SIMD指令

SIMD是(Single instruction multiple data)的缩写,代表了通过单一一条指令就可以操作一批数据。通过这种方式,在相同的时钟周期内,CPU能够处理的数据的能力就大大增加了。

上图是一个简单的乘法计算,我们可以看到:4个数字都需要进行乘3的计算。这需要执行

  • 4个load内存指令
  • 4个乘法指令
  • 4个内存回写指令

而通过SIMD指令则可以按批的方式来更快的处理数据,由上图可以看到。原先的12个指令,减少到了3个指令。当代的X86处理器通常都支持了MMX,SSE,AVX等SIMD指令,通过这样的方式来加快了CPU的计算。

当然SIMD指令也是有一定代价的,从上面的图中也能看出端倪。

  • 处理的数据需要连续,并且对齐的内存能获得更好的性能
  • 寄存器的占用比传统的SISD的CPU多

更多关于SIMD指令相关的信息可以参照笔者在文末留下的参考资料。

2.2 如何生成SIMD指令

通常生成SIMD指令的方式通常有两种:

Auto Vectorized

自动向量化,也就是编译器自动去分析for循环是否能够向量化。如果可以的话,便自动生成向量化的代码,通常我们开始的-O3优化便会开启自动向量化。

这种方式当然是最简单的,但是编译器毕竟没有程序员那样智能,所以对于自动向量化的优化是相对苛刻的,所以需要程序员写出足够亲和度的代码。

下面是自动向量化的一些tips:

  • 1.简单的for循环
  • 2.足够简单的代码,避免:函数调用,分支跳动
  • 3.规避数据依赖,就是下一个计算结果依赖上一个循环的计算结果
  • 4.连续的内存与对齐的内存

手写SIMD指令

当然,本身SIMD也通过库的方式进行了支持。我们也可以直接通过Intel提供的库来直接进行向量化编程,比如SSE的API的头文件为xmmintrin.hAVX的API头文件为immintrin.h。这种实现方式最为高效,但是需要程序员熟悉SIMD的编码方式,并且并不通用。比如实现的AVX的向量化算法并不能在不支持AVX指令集的机器上运行,也无法用SSE指令集代替。

3.开发起来,解决问题

通过上一小节对SIMD指令的分析。接下来就是如何在Doris的代码上进行开发,并验证效果。

3.1 代码开发

思路是最难的,写代码永远是最简单的。直接上笔者修改Doris的代码吧:

    // use SIMD instruction to speed up call function `RoundUpToPowerOfTwo`

auto mem_size = 0;

for (int i = 0; i < len; ++i) {

mem_len[i] = BitUtil::RoundUpToPowerOf2Int32(mem_len[i], MemPool::DEFAULT_ALIGNMENT);

mem_size += mem_len[i];

}

这里利用了GCC的auto vectorized的能力,让上面的for循环能够进行向量化的计算。由于当前Doris默认的编译选项并不支持AVX指令集, 而原有的BitUtil::RoundUpToPowerOf2的函数入参为Int64,这让只有128位的SSE指令有些捉襟见肘,所以这里笔者实现了BitUtil::RoundUpToPowerOf2Int32的版本来加快这个过程.

  // speed up function compute for SIMD

static inline size_t RoundUpToPowerOf2Int32(size_t value, size_t factor) {

DCHECK((factor > 0) && ((factor & (factor - 1)) == 0));

return (value + (factor - 1)) & ~(factor - 1);

}

如果是32位的计算,SSE指令支持128位的计算。也就是能够能够一次进行4个数字的操作。

完整的代码实现请参考这里的PR。

3.2 性能验证

Coding完成之后,编译部署,进行测试。同样用Perf进行热点代码的观察,向量化之后,对应的代码的CPU占比显著下降,执行性能得到了提升。

no vectorized

vectorized

DictPage

23.42%

14.82%

PlainPage

23.38%

11.93%

随后在单机SSB的模型上测试了一下效果,可以看到不少原先在存储层较慢的查询都得到了明显的加速效果。

接着就是老方式:提出issue,把解决问题的代码贡献给Doris的官方代码仓库。完结撒花

4.小结

Bingo! 到此为止,问题顺利解决,得到了一定的性能提升。

本文特别鸣谢社区小伙伴:

  • @wangbo的Code Review
  • @stdpain在内存对齐上的问题的讨论。

最后,也希望大家多多支持Apache Doris,多多给Doris贡献代码,感恩~~

5.参考资料

Vectorization教程

SIMD

Apache Doris源代码

posted @

2021-07-09 12:27 

HappenLee 

阅读(0

评论(0

编辑 

收藏 

举报

刷新评论刷新页面返回顶部

Copyright © 2021 HappenLee


Powered by .NET 5.0 on Kubernetes

以上是 Doris开发手记2:用SIMD指令优化存储层的热点代码 的全部内容, 来源链接: utcz.com/z/535754.html

回到顶部