首页 > 其他分享 >转载:【AI系统】核心计算之矩阵乘

转载:【AI系统】核心计算之矩阵乘

时间:2024-12-11 17:32:02浏览次数:4  
标签:AI 矩阵 卷积 计算 维度 转载 数据

AI 模型中往往包含大量的矩阵乘运算,该算子的计算过程表现为较高的内存搬移和计算密度需求,所以矩阵乘的效率是 AI 芯片设计时性能评估的主要参考依据。本文我们一起来看一下矩阵乘运算在 AI 芯片的具体过程,了解它的执行性能是如何被优化实现的。

从卷积到矩阵乘

AI 模型中的卷积层的实现定义大家应该都已经比较熟悉了,卷积操作的过程大概可以描述为按照约定的窗口大小和步长,在 Feature Map 上进行不断地滑动取数,窗口内的 Feature Map 和卷积核进行逐元素相乘,再把相乘的结果累加求和得到输出 Feature Map 的每个元素结果。卷积到矩阵乘的的转换关系示意如下图。

其中逐元素相乘,再累加的过程就是上节提到的一个计算单位:MACs,矩阵乘的 MACs 数对最终性能具有重要影响。通过将输入数据(Feature Map)和卷积核数据进行重排,卷积操作本质上可以等效理解为矩阵乘操作。

假设卷积的输入和输出的特征图维度用(IH, IW), (OH, OW)表示,卷积核窗口的数据维度用(KH, KW)表示,输入通道是 IC,输出通道是 OC,输入输出特征图和卷积核数据维度重排的转化对应关系如下公式,对输入数据的重排的过程称为 Im2Col,同理把转换后矩阵乘的数据排布方式再换回卷积输入的过程称为 Col2Im。

$$
\begin{align}
&input:(IC, IH, IW)\rightarrow(OHOW, KHKWIC)\
&filter: (OC, KH, KW, IC)\rightarrow(OC, KH
KWIC)\
&output:(OC,OH, OW)\rightarrow(OC,OH
OW)
\end{align}
$$

更具体的,假设卷积核的维度(2, 2),输入特征图维度(3, 3),输入和输出通道都是 1,对一个无 padding,stride=1 的卷积操作,输出特征图是(2, 2),所以输入卷积核转换为矩阵乘排布后的行数是 $2 * 2 = 4$,列数为 $2 * 2 * 1= 4$。下图是对应的卷积到矩阵乘的转换示意,输入、输出特征图和卷积核都用不同的颜色表示,图中数字表示位置标记。

比如输入特征图的排布转换过程:第 1 个输出对应输入特征图的窗口数据标记为 1, 2, 4, 5;第 2 个输出对应的输入特征图窗口数据标记为 2, 3, 5, 6;第 3 个输出对应的输入特征图窗口数据标记为 4, 5, 7, 8;第 4 个输出对应的输入特征图窗口数据标记为 5, 6, 8, 9。矩阵乘的维度对应关系如下。

$$
\begin{align}
&input: (OHOW, KHKWIC)\rightarrow (4,4)\
&filter: (OC, KH
KWIC)\rightarrow(1,4)\
&output:(OC, OH
OW)\rightarrow(1,4)
\end{align}
$$

矩阵乘分块 Tilling

上面介绍了卷积到矩阵乘的转换过程,我们可以发现,转换后的矩阵乘的维度非常大,而芯片里的内存空间往往是有限的(成本高),表现为越靠近计算单元,带宽越快,内存越小。为了平衡计算和内存加载的时间,让算力利用率最大化,AI 芯片往往会进行由远到近,多级内存层级的设计方式,达到数据复用和空间换时间的效果。根据这样的设计,矩阵乘实际的数据加载和计算过程将进行分块 Tiling 处理。

假设用 CHW 表示上面转换公式中的 $KH * KW * IC$ 的值,M 表示 OC,N 表示 $OH * OW $,矩阵乘的输入特征图维度是 (CHW, N),矩阵乘的卷积核维度是(M, CHW),输出矩阵维度是(M, N),可以同时在 M,N,CHW 三个维度进行 Tiling,每次计算过程分别加载一小块的特征图和卷积核数据计算,比如在 M,N,CHW 三个维度各分了 2 小块,得到完成的输出特征图需要进行 8 次的数据加载和计算。下图中的 Step1, Step2 展示了两次数据加载可以完成一个输出 Tile 块的计算过程。

矩阵乘的库

矩阵乘作为 AI 模型中的重要性能算子,CPU 和 GPU 的平台上都有专门对其进行优化实现的库函数。比如 CPU 的 OpenBLAS, Intel MKL 等,GPU 的 cuBLAS, cuDNN 等。实现的方法主要有 Loop 循环优化 (Loop Tiling)和多级缓存 (Memory Hierarchy)。

其两者的实现逻辑大概分为如下 2 步,关于 Kernel 实现优化的技术细节在[推理引擎]章节进一步展开。

  1. Lib 感知相乘矩阵的 Shape
  2. 选择最优的 Kernel 实现来执行

下图展示了对矩阵乘进行 Loop 循环优化和多级缓存结合的实现流程。

左边是共 6 级 Loop 循环展开的伪代码,右边是 Loop 对应多级存储的数据 Tilling 和搬移过程,假设矩阵乘 A,B,C 对应维度是(m, k, n)。

  • Loop5, Loop4, Loop3 对应把矩阵在 n, k, m 维度进行 Tilling 的切分,Tilling 后维度大小分别是 nc, kc, mc。
  • Loop2, Loop1 分别将 Tilling 后的 nc, mc 维度再一次 Tilling,Tilling 后维度大小分别是 nr, mr。
  • Loop0 对 kc 维度进行展开,实现累加求和的过程,得到(mr, nr)大小输出矩阵的部分和。

图中不同的颜色框指代了在不同存储层级上的数据计算,不同颜色块表示该块数据的存储位置。结合不同存储层级的内存空间和数据搬移带宽大小,将不同大小的 A,B 矩阵的 Tilling 块放在不同的存储层级上,可以平衡 AI 芯片执行矩阵乘任务时的时间和空间开销,提升整体算力利用率。比如,对(mr, nr)的计算过程,通过将 B 矩阵的(kc,nr)加载 1 次到 L1 cache 中,每次从 L2 cache 加载 A 矩阵的(mr, kc)大小到计算模块,进行计算,假设 mc 切分了 3 个 mr,则 B 矩阵的(kc, nr)就在 L1 中被重复利用了 3 次。这种用空间换时间或者用时间换空间的策略是进行算子性能优化的主要方向。

矩阵乘的优化

矩阵乘作为计算机科学领域的一个重要基础操作,有许多优化算法可以提高其效率。下面我们对常见的矩阵乘法优化算法做一个整体的归类总结。

  1. 基本的循环优化:通过调整循环顺序、内存布局等手段,减少缓存未命中(cache miss)和数据依赖,提高缓存利用率,从而加速矩阵乘法运算。

  2. 分块矩阵乘法(Blocked Matrix Multiplication):将大矩阵划分成小块,通过对小块矩阵进行乘法运算,降低了算法的时间复杂度,并能够更好地利用缓存。

  3. SIMD 指令优化:利用单指令多数据(SIMD)指令集,如 SSE(Streaming SIMD Extensions)和 AVX(Advanced Vector Extensions),实现并行计算,同时处理多个数据,提高计算效率。

  4. SIMT 多线程并行化:利用多线程技术,将矩阵乘法任务分配给多个线程并行执行,充分利用多核处理器的计算能力。

  5. 算法改进:如 Fast Fourier Transform 算法,Strassen 算法、Coppersmith-Winograd 算法等,通过矩阵分解和重新组合,降低了算法的时间复杂度,提高了计算效率。

这些优化算法通常根据硬件平台、数据规模和计算需求选择不同的策略,以提高矩阵乘法运算的效率。在具体的 AI 芯片或其它专用芯片里面,对矩阵乘的优化实现主要就是减少指令开销,可以表现为两个方面:

  1. 让每个指令执行更多的 MACs 计算。比如 CPU 上的 SIMD/Vector 指令,GPU 上的 SIMT/Tensor 指令,NPU 上 SIMD/Tensor,Vector 指令的设计。

  2. 在不增加内存带宽的前提下,单时钟周期内执行更多的 MACs。比如英伟达的 Tensor Core 中支持低比特计算的设计,对每个 cycle 执行 512bit 数据的带宽前提下,可以执行 64 个 8bit 的 MACs,大于执行 16 个 32bit 的 MACs。

如果您想了解更多AI知识,与AI专业人士交流,请立即访问昇腾社区官方网站https://www.hiascend.com/或者深入研读《AI系统:原理与架构》一书,这里汇聚了海量的AI学习资源和实践课程,为您的AI技术成长提供强劲动力。不仅如此,您还有机会投身于全国昇腾AI创新大赛和昇腾AI开发者创享日等盛事,发现AI世界的无限奥秘~
转载自:https://www.cnblogs.com/ZOMI/articles/18555383

标签:AI,矩阵,卷积,计算,维度,转载,数据
From: https://www.cnblogs.com/ewr67/p/18600084

相关文章

  • AI 口语学习应用 Speak 新一轮融资估值 10 亿美元;YouTube 推出 AI 多语言配音丨 RTE
       开发者朋友们大家好: 这里是「RTE开发者日报」,每天和大家一起看新闻、聊八卦。我们的社区编辑团队会整理分享RTE(Real-TimeEngagement)领域内「有话题的新闻」、「有态度的观点」、「有意思的数据」、「有思考的文章」、「有看点的会议」,但内容仅代表编......
  • JVM 垃圾回收时产生的 concurrent mode failure 的原因是什么?
    JVM垃圾回收时产生的concurrentmodefailure的原因是什么?在JVM中,concurrentmodefailure是垃圾回收器(通常是CMS,即ConcurrentMark-SweepGC)在执行并发垃圾回收时,因老年代空间不足导致的失败。这种失败会迫使JVM采用Stop-The-World(STW)的方式,执行一次单线程的FullG......
  • 转载:【AI系统】AI 基本理论奠定
    AI基本理论奠定虽然AI在今年取得了举世瞩目的进展与突破,但是其当前基于的核心理论神经网络等,在这波浪潮开始前已经基本奠定,并经历了多次的起起伏伏。神经网络作为AI的前身,经历了以下的发展阶段:萌芽兴奋期(约1950s)1943年,神经科学家和控制论专家WarrenMcCulloch和逻辑......
  • 转载:【AI系统】AI 发展驱动力
    AI起源于上世纪五十年代,经历了几次繁荣与低谷,直到2016年谷歌旗下的DeepMind发布AlphaGo程序赢得与世界围棋冠军的比赛,大众对AI的关注与热情被重新点燃。其实AI技术早在这个标志事件之前已经在工业界很多互联网公司中得到了广泛应用与部署。例如,搜索引擎服务中的排序、......
  • 转载:【AI系统】AI系统概述与设计目标
    AI系统全栈架构通过对AI的发展、以及模型算法、硬件与数据的趋势介绍,我们已经了解了AI系统的重要性。本文将介AI系统的设计目标、组成和生态,让读者形成AI系统的知识体系,为后续展开每篇文章的内容做好铺垫。AI系统设计本身需要各个环节通盘考量,无论是系统性能,还是用户......
  • 转载:【AI系统】AI系统架构的组成
    AI系统组成如图所示,大致可以将AI系统分为以下几个具体的方向:AI训练与推理框架AI框架不仅仅是指如PyTorch等训练框架,还包括推理框架。其负责提供用户前端的AI编程语言,接口和工具链。负责静态程序分析与计算图构建,编译优化等工作。AI框架本身通过提供供用户编程的API......
  • 转载:【AI系统】AI 系统与程序代码关系
    模型算法的开发者一般会通过使用AI框架提供Python等高级语言的API,来编写对应的AI算法,而AI算法的底层系统问题被当前层抽象隐藏。到底在代码背后AI系统的每一层发生和执行了什么?有哪些有意思的系统设计问题?本文我们将从一个具体的PyTorch实现一个LeNet5神经网络模......
  • 亚矩阵云手机:构建YouTube视频分发手机矩阵
    在当今的数字媒体领域,YouTube作为视频内容分发的重要平台,为创作者提供了展示才华、传播知识和推广产品的广阔舞台。然而,如何高效地在YouTube上分发视频内容,扩大影响力并吸引更多观众,成为了众多创作者面临的挑战。为此,利用亚矩阵云手机构建YouTube视频分发手机矩阵,成为了一种......
  • 亚矩阵云手机:如何实现tiktok多账号矩阵运营
    在全球化社交媒体浪潮中,TikTok已迅速崛起为热门平台。为了更有效地管理多个账号,许多用户已开始采用云手机技术。本文将深入探讨TikTok云手机在多账号矩阵运营中的各种优势。一、一机多号,高效管理借助TikTok云手机技术,用户能轻松实现一机多号,即在一部手机上同时管理多个Ti......
  • 转载:【AI系统】AI的领域、场景与行业应用
    AI的历史与现状本文将介绍AI的由来、现状和趋势,让大家能够了解AI应用的由来与趋势,为后面理解AI系统的设计形成初步的基础。在后面文章介绍的人工智能系统(AISystem)奠定基础,值得注意的是,这些系统设计原则大部分也适合于机器学习系统(MLSystem)。因为系统本身是随着上层应用......