您正在使用IE低版浏览器,为了您的雷峰网账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
此为临时链接,仅用于文章预览,将在时失效
人工智能开发者 正文
发私信给叨叨
发送

0

OpenBLAS项目与矩阵乘法优化 | AI 研习社

本文作者: 叨叨 2017-04-21 18:10
导语:PerfXLab澎峰科技创始人分享

提起矩阵计算,学过《高等数学》的人可能都听过,但若不是这个领域的研究者,恐怕也只停在“听过”的程度。在矩阵计算领域,开源项目OpenBLAS影响巨大,除IBM、华为等巨头公司在使用外,还吸引了全球的研究院校、开发者们关注。

雷锋网 AI 研习社近日有幸邀请到了澎峰科技创始人、OpenBLAS项目创始人和主要维护者张先轶,他将为我们介绍OpenBLAS开源项目以及矩阵乘法的优化。

嘉宾介绍

张先轶,中国科学院博士,MIT博士后,OpenBLAS开源项目创始人和主要维护者,PerfXLab澎峰科技创始人。曾获2016年中国计算机学会科技进步二等奖。

OpenBLAS项目与矩阵乘法优化 | AI 研习社

张先轶师从张云泉教授,在中科院取得高性能计算博士学位。读博期间,基于GotoBLAS的原有基础,他创建了开源矩阵计算库OpenBLAS,领导团队不断进行修补和维护,目前在矩阵计算的细分领域,成为影响力较大的开源项目。

他在MIT萌生创业想法,归国之后,针对“深度学习”,创办PerfXLab澎峰科技,为计算机视觉、语音识别等公司提供一体化性能优化方案。雷锋网【新智造】频道此前曾采访并报道了PerfXLab澎峰科技。

课程内容

OpenBLAS项目介绍

矩阵乘法优化算法

一步步调优实现

以下为公开课完整视频,共64分钟:

以下为公开课内容的文字及 PPT 整理。

雷锋网的朋友们大家好,我是张先轶,今天主要介绍一下我们的开源矩阵计算库OpenBLAS以及矩阵乘法的优化。

OpenBLAS项目与矩阵乘法优化 | AI 研习社

首先,什么是BLAS?

BLAS是 Basic Linear Algebra Subprograms (基本线性代数子程序)的首字母缩写,主要用来做基础的矩阵计算,或者是向量计算。它分为三级:

  • BLAS 1级,主要做向量与向量间的dot或乘加运算,对应元素的计算;

  • BLAS 2级,主要做矩阵和向量,就类似PPT中蓝色部分所示,矩阵A*向量x, 得到一个向量y。除此之外,可能还会有对称的矩阵变形;

  • BLAS 3级,主要是矩阵和矩阵的计算,最典型的是A矩阵*B矩阵,得到一个C矩阵。由矩阵的宽、高,得到一个m*n的C矩阵。

为什么BLAS是一个非常重要的库或者接口,是因为它是很多科学计算的核心之一。每年做超级计算机的排行榜,都要做LINPACK测试,该测试很多部分就是做BLAS 3级矩阵和矩阵的计算。此外,还有很多科学和工程的模拟,在转换后都变成了一种矩阵上的操作。如果你把矩阵优化的特别好的话,对整个应用的提升,都是非常有帮助的。

OpenBLAS项目与矩阵乘法优化 | AI 研习社

BLAS与 Deep Learning 的关系,深度学习这几年火了之后,比如大家非常了解的Alexnet,如果做具体的性能划分,PPT上的这张图来源于某篇论文,cut down之后看每个部分花了多少时间,发现它大部分的时间花费在卷积层(Conv Layer),另外不少时间花在了全连接层(FC layer)。卷基层目前通用的实现是展成矩阵,变成矩阵与矩阵的乘法,就是BLAS 3级。而全连接层一般是变成一个矩阵和向量的乘法,也落成了BLAS操作。

也就是说,基于矩阵类学习的深度学习,有90%或者更多的时间是通过BLAS来操作的。当然,随着新的算法出现,卷积层对3*3的卷积核有专门的算法,或者用FFT类类算法也可以做,但是在通用上,展矩阵来做也非常广泛。

OpenBLAS项目与矩阵乘法优化 | AI 研习社

目前,BLAS只是一个定义了的实现接口,但是具体的实现其实有很多种。从商业的角度来讲,存在很多商业版本,比如说 Intel、AMD、NVIDIA、IBM公司等,基本上为了搭配自己的硬件,对其做了更优的优化,出了商业版本。

针对开源的而言,有如下几种,之前比较知名的是GoToBLAS,和OpenBLAS有很深的渊源,但是在2010年终止开发了,有时间在给大家分析其背后的原因,主力的开发人员后藤,离开了UT Austin的研究组,进入了公司,就终止了开发。ATLAS是美国一个学校做的,OpenBLAS是我们基于GotoBLAS做的,BLIS是后藤走了之后,基于GotoBLAS扩展出来的一个项目,目前还处在相对早期的阶段,成熟度还差一些。

OpenBLAS项目与矩阵乘法优化 | AI 研习社

OpenBLAS历史已经有几年了,从2011年初开始进入,最初的原因是GotoBLAS放弃了,我们重新fork了一个社区发行版,继续开发和维护,它的维护不是一个简单修BUG的过程,如果想要获得比较好的性能,需要不停跟着硬件走,比如说新出一种新的硬件架构,或者适配更广的硬件架构,都要进行一定的优化,来获得比较好的加速效果。OpenBLAS算是目前全球最好的开源矩阵计算库,在去年的时候得到了中国计算机学会科技进步二等奖,同时也进入了很多主流的Linux安装包,比如说Ubuntu里面就有我们的OpenBLAS Package,你能想到的Linux发行版几乎都进去了,但这不是我们主动去做的。还有一个OpenHPC的套件,也是最近做高性能计算的一个源。

OpenBLAS项目与矩阵乘法优化 | AI 研习社

目前OpenBLAS的进展是,支持几乎全部的主流CPU处理器,同时都能达到比较好的优化性能。从操作系统来说,基本上常见主流的OS都支持。整体上,从适配的处理器范围和支持的操作系统,在开源库中算是最广的实现。

OpenBLAS项目与矩阵乘法优化 | AI 研习社

因此,OpenBLAS的用户也是比较多的。比如有开源项目Julia语言、GNU octave等;深度学习方面有大家熟悉的mxnet、Caffe都可以选OpenBLAS,作为CPU端的计算backend; IBM公司、ARM公司也都在他们的产品里边使用了OpenBLAS,NVIDIA公司在做一些跟CPU的对比测试时,把OpenBLAS列为了一个基准。其他还有一些做编译器的以色列创业公司,还有国内的一些互联网公司,比如搜狗。前段时间还和搜狗公司的人聊过,我们的库在线上已经稳定运行一年多以上的时间,所以说它的工程质量上还是还是可以的。

OpenBLAS项目与矩阵乘法优化 | AI 研习社

IBM前段时间,因为深度学习非常火,做了一个Power AI的软件框架,可以看到,最上面一层是一些开源的框架,底层的计算中就有我们的OpenBLAS。当然是为了搭载他的服务器。

OpenBLAS项目与矩阵乘法优化 | AI 研习社

简要的看一下性能,BLAS库的性能是越高越好。在Intel的 Sandy Bridge平台上,相比MKL的性能,基本上是重合在一起的,达到了一个相当的性能。

OpenBLAS项目与矩阵乘法优化 | AI 研习社

这张图展示了在龙芯上做的一个结果,测得比较全,整体的BLAS多线程的,性能全测试了,性能比较高的都是我们,提高了一倍到两倍。这是因为我们针对龙芯3A做了优化,所以取得了非常好的效果。

OpenBLAS项目与矩阵乘法优化 | AI 研习社

刚才主要介绍了OpenBLAS的性能和效果,我们在GitHub上做了托管,欢迎对矩阵乘法或优化感兴趣的同学能加入进来,贡献代码,我们公司愿意拿出一笔钱来支持这个项目继续往前走。接下来会开始一些技术类的干货,主要讲一下大家对优化比较感兴趣的部分,我参考了矩阵乘法的这几篇教程,UT Austin Flame组做的教程。我把他的内容基本上是抠出来了,一步步带着大家过一下,如果我们从最简单的矩阵乘法实现,到一个高性能的矩阵乘法实现,大概是几步,怎么来的?或者是为什么优化,每一步能获得多少性能收益。这样大家对于一些优化的其他程序,希望能提供一些帮助。

OpenBLAS项目与矩阵乘法优化 | AI 研习社

我们首先看一下基本实现。

我想只要学过《线性代数》之类的,这种矩阵乘法,是一个非常简单的问题,如果转换成C代码来做的话,就是一个三重循环,我在这张图里列出了一个【i j k】的三重循环,这里面矩阵乘法的代码就已经是,它实现的功能就是矩阵A*矩阵B,加到矩阵C里面,C是结果矩阵,这里面C的代码,和在课本上看到的累加的公式是一样的。找到i行,对应这个位置的结果C,把i行的每个元素,都取出来乘以B列,对应的乘,然后加起来就可以得到这个结果。但是这种实现,如果你放到现在的处理器上跑性能的话,和优化后的BLAS库的实现,性能会差很多倍,甚至会差10倍。

OpenBLAS项目与矩阵乘法优化 | AI 研习社

为什么呢,我们就做了一下最后的性能测试

这张图也是截自教程里,代表了一个性能图,越高越好。这里的测试平台是Intel core i5 ,只是测了单线程,没管多线程的事情。这种初始实现可能是1 GFlop/s。随着规模变大,矩阵的性能在下降是为什么呢?因为在实现的过程中,没有考虑到cache的原因,当矩阵比较小的时候,速度还能快一些,当矩阵大了的时候,一定会跌下去,所以图里就有一个下滑的过程。

这个是非常原始、基础的实现。

OpenBLAS项目与矩阵乘法优化 | AI 研习社

再往上走一步,怎么样才能再稍微优化一下。我们需要把矩阵的乘法顺序调一下,我们在这里做了一个小的分块,把p单独提到了一个函数里,以点乘的形式写出来,每次做一个1*4的结果,单独提出来变成一个函数。p的这一步,要把计算顺序稍微换一下,把i放到里面,j放到外面,这块背景为什么要换一下,实际上是因为我们假设矩阵在存储的时候是以列优先存储的,在列项的数值是连续存储,行之间是有间隔的,这对于仿存更有优势。变成这样的实现之后,对整体的性能其实没什么帮助,那为什么换成这种形式来写呢,是为了之后的优化,留下一定的空间。

OpenBLAS项目与矩阵乘法优化 | AI 研习社

当矩阵比较小,在cache里面的时候,性能基本是没什么变化的,但是超过cache的时候,它的性能稍微好了一点,从刚才非常低的值,也达到了接近1GFlop/s主要的原因是对A(0,p)做了一定的复用,它省了一些cache。另外一方面,它本身在做循环的利用来说,相当于比这部分做了一定循环的展开,所以在效率上得到了一定的提升。

这块的复用,只从内存读取一次,所以对超过cache的情况有了一定改善。

OpenBLAS项目与矩阵乘法优化 | AI 研习社

在这个基础上,我们就需要看一下有什么更好的方法来做优化。我们的基准就是,AddDot1*4的基准上怎么做,我们想到第一点做的是,我们可不可以用寄存器变量来做,而不是操作内存。我可以申请一堆C 00,01这样的寄存器变量,在C语言中是register double,还有矩阵A的部分,也用寄存器变量。

OpenBLAS项目与矩阵乘法优化 | AI 研习社

剩下的操作都是一些寄存器的变量,当然B还是之前的方式,最后再写回C里面。它完成的流程基本跟与之前的实习一样,只是我们引入了寄存器变量,让更多的数据保存到寄存器里,而不是放到cache缓存里,来减轻cache的压力,这也能获得一部分性能的提升。

可以看到,红色的线是我们优化后的性能,达到了2GFlop/s,蓝色的线是之前的性能,这里做的优化就是利用寄存器降低cache的消耗,取得了50%左右的性能提升。完成了这一步之后,我们还可以再怎么样做优化呢?

OpenBLAS项目与矩阵乘法优化 | AI 研习社

我们刚才在A、C的部分,已经用寄存器做了替换,那么B仿存这部分,我们有没有可能也做一些优化。在之前实现的时候,B部分每次的坐标计算都需要算出来,B访问每个位置都要算一次,这样就引入了额外的开销,其实是可以避免的。

我们使用指针的方式,一开始先把对应的指针位置指好,每次计算的时候只要指针连续移动就好,而不是每次读一个位置重新算一遍,这样速度就会快一些。

OpenBLAS项目与矩阵乘法优化 | AI 研习社

我们看一下,做完这个小优化之后,降低了B index的消耗之后,从刚才的2G F…达到了4G的性能。这块的改善对于小矩阵有效果,大矩阵全都超出了cache范围,就不会有效果的。所以假设矩阵都在cache里面,这块也获得了不小的性能提升。

OpenBLAS项目与矩阵乘法优化 | AI 研习社

当你完成这一部分的时候,你可以想,我把A矩阵做了寄存器替换,B矩阵通过index改进,我们下一步还能怎么做?

其实就是一个比较常用的方式,做展开。

在最里层循环,是不是可以展开成4次,在做这个的时候,我们可以降低整个循环这部分的开销,而且让它流水的情况更好。OpenBLAS项目与矩阵乘法优化 | AI 研习社

这部分也会对性能有一些改善。这张图比较的当初在中间阶段的时候比起开始阶段,得到了多少提升。通过使用寄存器变量,使用了指针,在做了一定的底层循环展开之后,达到了红色线的性能,已经比蓝色线有了明显的提升,但是这个还不算完,只是一个基础。但是在1*4的层面,已经没什么油水可挖了,所以我们需要在更上层找一些方法。

OpenBLAS项目与矩阵乘法优化 | AI 研习社

在1*4的时候,A的值产生了一些重用,但是如果块再放大一点,比如说变成4*4时,也就是说每次计算的时候算的是一个方块,而不是列。这个对于整个的优化来说,可以复用你的访存,而且能够更充分的发挥计算能力。

OpenBLAS项目与矩阵乘法优化 | AI 研习社

当我们变成小的这种4*4的方块时,AddDot函数也要写成这个模式。当然,这部分也要用刚才做过的那些1*4的方法,A这边之前是1个值,现在是4个值,用寄存器的变量,C部分已经是4*4共有16个,也全都是寄存器变量,B的部分全部用指针来优化。

OpenBLAS项目与矩阵乘法优化 | AI 研习社

但这样做的话,对于整体的性能提升是比较有限的。因为这只是一个初始的结果,可以看到,对于小矩阵,在cache范围内,没有什么起色。但是超过cache后,对于大规模的矩阵,是有了一定性能提升。

OpenBLAS项目与矩阵乘法优化 | AI 研习社

在以4*4的结果优化基础上,我们可以再做进一步的优化和开发。为什么要转换成4*4的优化,是因为我们现在CPU的处理器,基本上想获得高的性能,必须要用向量化指令,不管是老的SSE2,AVX或者AVX 2.0等,对于CPU的优化,如果想达到高性能,必须要用到单指令多数据的向量化指令。

OpenBLAS项目与矩阵乘法优化 | AI 研习社

做了4*4的分块之后,在这种情况下,会更有利于向量指令。在这里以向量指令重写了这部分循环的内容,当然这部分指令我没有任何的内嵌汇编或者纯汇编的操作,我就直接用了Intel Intrinsic的形式来写,可以看到这部分写的就是一个128位的sse,这是做一个双精度浮点double的一个矩阵,数据都是double的,从A里把这两个值load进来。后两个load进这个向量寄存器里,B部分每次都要用load复制的这种指令load进去,剩下的这块基本都是用向量的Intrinsic的变量来做了操作,在这块跟之前看起来差不多,所以在编译的时候都变成了向量化的指令。这两行就算前部分C的值,这部分就算后部分C的值。

通过这种向量寄存器的指令使用后,他的性能提升非常明显,从刚才4G可以达到超过6G ,而且这一部分是一个整体的变化,cache内向量加速效果是非常明显的,基本上是翻了一倍。

下一步需要解决的是这个cache的问题,问题是没有做大的分块,超过cache大小之后性能就会下滑,要解决这个问题的话,需要在更上一层做Blocking。

OpenBLAS项目与矩阵乘法优化 | AI 研习社

转换成代码的话,在这一层做一个K的切分,下面一层做一个m的切分,至于kc和mc都是参数。这些参数都是可调的,都要根据L2 cache的大小进行调整,然后每次做的是一个小块c的矩阵乘,相当于一个子问题,这个子问题的实现基本和刚才4*4的实现是一样的。

OpenBLAS项目与矩阵乘法优化 | AI 研习社

这一部分blocking做完的性能如图所示,蓝色的线是没有做Blocking的性能,红色线是做过之后。当问题规模在cache内,它的性能改善基本比较小,但是当大规模的矩阵,通过做了这次Blocking之后,可以看到获得了非常明显的提升,变快了2倍。

OpenBLAS项目与矩阵乘法优化 | AI 研习社

对于大矩阵,为了充分的利用cache,让子问题变小,提升它的数据局部性,在做其他问题优化的时候也很有必要的。下一步当我们做到blocking的时候,如果只是代码级别变化的时候,基本已经做完了。

此后再进一步优化的点,引入引入一些操作。当我们分析程序存在的性能瓶颈,对于A的访存和B的访存是比较慢,很多访存在矩阵中是不连续的,所以访存性能就差了很多,一方面不能利用cache,一方面在TLB上也有影响,当然C部分也有一些影响,C矩阵往往很大,没有办法做packing,只能对A和B来做,packing的意思是说,我在这里有一部分连续的内存空间,m*k,对应前面的mc和kc,在这块内存空间,在每次做计算之前,我把所需要用到的A的矩阵,从原始矩阵读取出来,存放到连续的一块内存空间里。 Packed Matrix A这个函数的具体实现非常简单,基本上就是从对应的位置取出来,放在连续的内存地址就结束。

为什么会做这步操作呢?这步操作的意义在于,通过pack之后,下一步AddDot4*4里读的元素就不是从A矩阵读,而是从pack后缓存区的位置读。一个好处是,A矩阵已经预热,放进CPU的cache里了;第二个好处是,你可以看到我在存储的时候,这种连续性的存储,读的时候也是连续性读取,效率会非常高,cache效率也非常高。加上通过pack这一步,对于性能的改善,是非常明显的。

OpenBLAS项目与矩阵乘法优化 | AI 研习社

这张图是上一步的操作,做了packing之后,除了极小矩阵规模没什么效果,或者引入了额外开销,效果还变差之外,绝大部分的性能提升是非常明显的,有50%以上,达到了9GFlop/s。

OpenBLAS项目与矩阵乘法优化 | AI 研习社

对于矩阵乘法实现的话,packing矩阵是一个非常重要的优化方式。再往后大家会想,对于A来说做了Packing,对于B是不是也能做Packing,同样道理也是可以的,就是把它拷贝到一个连续空间。B部分的Packing操作和A部分类似,也是把它的数据从原始矩阵里读出来,然后放到一个连续空间里,使它的内存访问做连续的访存。当然这部分,因为B访存是个流式的访存,所以在这部分的改进会稍微小一点,相比A只有大概10%左右的提升。

OpenBLAS项目与矩阵乘法优化 | AI 研习社

对于矩阵乘法实现的话,packing矩阵是一个非常重要的优化方式。再往后大家会想,对于A来说做了Packing,对于B是不是也能做Packing,同样道理也是可以的,就是把它拷贝到一个连续空间。B部分的Packing操作和A部分类似,也是把它的数据从原始矩阵里读出来,然后放到一个连续空间里,使它的内存访问做连续的访存。当然这部分,因为B访存是个流式的访存,所以在这部分的改进会稍微小一点,相比A只有大概10%左右的提升。

OpenBLAS项目与矩阵乘法优化 | AI 研习社

当你完成到这一步的时候,相比最开始三重循环的性能改进,你的矩阵乘法的性能已经有很明显的提升了。你如果想做的更好的话,内部的核心可能不止要写intrinsic的指令,还要写内嵌汇编,重排流水线,使硬件资源能够发挥更多,可能还会提升10%。当然这部分对实现BLAS比较重要,会抠的比较细。

我们再整体回顾一下矩阵乘法的算法,我把算法的这部分放到最后,从开始一步步实现之后,做到最后大家可能看的比较清楚一些。A矩阵*B矩阵得到C矩阵,对应的是最外层的循环,每一步往下的时候,其实都是在做分块,做分块的原因刚才有提到,就是为了配合硬件结构,因为memory、cache等都是分层的,它是越来越小的,做分块实际上是提高了cache的各层的利用率。

今天就分享到这里,谢谢大家。

问答解答

问题1:什么是访存优化?

张先轶:访存优化解决的是处理器读取数据的性能。从计算上来说,是相对好优化的,但是优化访存会非常困难,稠密矩阵乘法的数据还是相对规整的,读数据的顺序是有规则的,更容易优化一些。但是我们也做过很多稀疏矩阵的优化,比如稀疏矩阵乘向量的优化,这个对访存来说更困难一些,因为没有办法预测到下一次访存在什么位置,这造成了优化的困难。

问题2:OpenBLAS和其他矩阵库有什么关系?

张先轶:OpenBLAS和其他BLAS实现其实都是完成了接口,BLAS只是接口的定义,具体来说可以有多种实现。我们认为我们OpenBLAS在开源的实现是非常好的。如果是标准BLAS,有参考实现,只是一个非常简单的Fortran实现,性能很差的,我们要比他们快很多。MKL是Intel公司自己做的BLAS,我们跟他们相当。Engien我们没有完全测过,它号称自己做的很好,但是他们的做法在X86的平台可能有些效果,但是对其他平台的效果我表示怀疑。不过我没有具体做对比测试,所以发言权不大。

问题3:从入门到精通需要多久?

张先轶:如果我指导的话,几个月时间就可以上手做一些事情。欢迎大家。

问题4:比起高通的库表现如何?

张先轶:说实话高通的库没有测过,我觉得它号称比较快,是因为在32位的ARM上,我们OpenBLAS没有做向量化优化,高通的那个部分做了,所以它可能会比我们快一些,但是在我们公司内部的PerfBLAS是优化了的。

问题5:分块的目的是什么?

张先轶:就是优化访存,通过分块之后让访存都集中在一定区域,能够提高了数据局部性,从而提高cache利用率,性能就会更好。

问题6:硬件不给力能玩神经网络么?

张先轶:我们给出的一个数据是,我们在ARM CortexA57的平台上,4核1.7GHz,跑AlexNet模型,一张图是150ms,这个速度还算比较快。另一方面我们还在做一些其他的模型,做了精简优化,再配合底层库的优化。在某个小模型下,在跑一张小图片的inference只用了50ms。所以,在ARM的处理器上,还是可以做到实时本地化的神经网络inference。

问题7:内部版本和开源版本差别大么?

张先轶:内部版本是针对深度学习做了一些差异化处理,性能高的可能会到1倍多,这部分的优化,一部分是矩阵的规模,和刚才讲的做方阵不一样,深度学习的矩阵大部分是中小型,某个维度会比较小,要用到的优化策略,或者分块策略会不一样,甚至有时候特别小根本不用分块或packing,直接做可能更好一些。


雷峰网原创文章,未经授权禁止转载。详情见转载须知

OpenBLAS项目与矩阵乘法优化 | AI 研习社

分享:
相关文章

编辑

雷锋网北京编辑。关注人工智能,略杂。微信(yougo5654)可以找到我。
当月热门文章
最新文章
请填写申请人资料
姓名
电话
邮箱
微信号
作品链接
个人简介
为了您的账户安全,请验证邮箱
您的邮箱还未验证,完成可获20积分哟!
请验证您的邮箱
立即验证
完善账号信息
您的账号已经绑定,现在您可以设置密码以方便用邮箱登录
立即设置 以后再说