首页 > 其他分享 >转载:【AI系统】谷歌 TPUv2 训练芯片

转载:【AI系统】谷歌 TPUv2 训练芯片

时间:2024-12-11 17:53:25浏览次数:4  
标签:训练 AI MXU v2 芯片 TPU Vector TPUv2

在 2017 年,谷歌更新了他们的 TPU 序列。谷歌将这一代 TPU 称之为 “用于训练神经网络的特定领域超级计算机”,那么显而易见,相比于专注于推理场景的 TPU v1,TPU v2 将自己的设计倾向放到了训练相关的场景。如果回顾历史,在 2017 年前后,深度学习跨时代的工作如雨后春笋般涌现,也就是那年,谷歌在 NIPS(也就是当今的 NeurIPS)发布了那篇革命性的 《Attention Is All You Need》,从而彻底革新了 NLP 的世界,也引领了未来十年的潮流。那么可以想象的是,这篇论文不仅是谷歌 Brain 研究院夜以继日的心血,也是谷歌在深度学习领域耕耘多年的成果。那么我们就来讲讲 TPU v2,那个站在 Attention 背后的超级计算机。

TPU v2 业务场景变化

推理在训练好的模型结构和参数基础上,一次前向传播得到模型输出过程。相对于训练,推理不涉及梯度和损失优化,因此,协同着神经网络模型的鲁棒性,模型对于数据精度的需求则较低。相比之下,训练过程是一个比推理复杂很多的过程。通常来说训练过程通过设计合适 AI 模型结构以及损失函数和优化算法,将数据集以 mini-batch 反复进行前向计算并计算损失,反向计算梯度利用优化函数来更新模型,使得损失函数最小从而使得模型收敛。在训练过程中,最关键的步骤就是梯度的计算和反向传播,同时在这个过程中也需要计算工程中常见的优化器、学习率调度器等工具,因此数据计算的精度便变得非常重要,一旦在某个计算节点除了问题,则有可能引发梯度爆炸、梯度消失等问题导致模型无法收敛。

下图是模型训练(上图)和推理(下图)的简单图示,我们可以看到在训练场景,模型和数据需要不停在“向前传播 $\rarr$ 向后传播 $\rarr$ 权重更新”的流程中进行循环,一直到权重收敛。之后准备好的模型则会被部署在生产环境,每一次当新的数据传来,这份数据只需要在部署好的模型内向前传播一次就可以得到模型输出并投入生产。

训练场景难点

那么细化下来,训练场景到底有哪些难点呢?

  • 更难的数据并行:推理阶段,每个推理任务都是独立的,因此 DSA 芯片集群可以横向拓展。而在训练场景,一个模型就需要迭代百万次,模型所有的参数在每一个迭代中都要进行调整,因此需要协调跨集群进行并行计算。

  • 计算复杂度更高:反向传播需要对模型每一个阶段的每一个权重参数和输入的偏导数进行计算,包括数据格式更高精度的激活值和转置权重矩阵 $W^T$ 的矩阵乘法计算。

  • 内存需求更大:权证更新的数据来自于前向和反向传播的临时变量,在模型的每一层,临时变量都需要被保留,因而提高了对于现存的负荷,在大模型中临时变量,包括每一层的激活值、优化器的值会将模型的大小膨胀至原始大小的 8~9 倍。

  • 更具可编程性:训练算法和模型的快速变化可能会导致在芯片设计时的设计很快被淘汰果实,因此训练芯片需要有更高的可编程性从而适应日新月异的模型架构更新。

  • 高精度的数据格式:整数 INT8 可以用于推理,但是训练期间需要充分捕捉梯度信息,通常需要 FP16,BF16 和 FP32 等混合精度计算以保证模型能够收敛。

TPU v2 vs. TPU v1

面对诸多难题,谷歌的工程师在第一代 TPU 的基础上做出了一些细微改进,以适应训练场景。那么具体有哪些改动呢?

改动一:Vector Memory

在 TPU v1 中,我们可以看到它有两个存储区域:

  • Accumulator 负责储存矩阵乘积结果
  • Activation Storage 负责储存激活函数输出

在推理场景中,专门的存储模块对计算和存储非常有帮助,因为它们更加 Domain Specific。但是在训练过程中,为了提升可编程性,如下图所示,TPU v2 交换了 Accumulators 和 Activation Pipeline 这两个独立缓冲区的位置,并将它们合并为 Vector Memory,变得更像传统架构中的 L1 Cache,从而提升了可编程性。

改动二:Vector Unit

在 TPU v1 中,Activation Pipeline 是专门针对激活函数场景特殊处理的,即卷积之后有一个 Batch Normalization 再接一个特殊的激活函数的 ALU 计算。然而,这种特殊的 ALU 计算无法满足训练场景的需求。因此,如下图所示,曾经的 Activation Pipeline 在 TPU v2 中变成了一个 Vector Unit,用于专门处理一系列的向量激活函数。

改动三:MXU

在 TPU v1 中,MXU 是和 Vector Memory 相连接的,而在 TPU v2 中,谷歌将 MXU 和 Vector Unit 进行了连接,所有的数据出口和计算都由 Vector Unit 进行分发。如此一来,MXU 所有的矩阵相关计算就成为了 Vector Unit 的协处理器,这对编译器和编程人员更加友好。

改动四:DDR3

在 TPU v1 中使用 DDR3 内存是为了将推理场景中需要用到的一些权重直接加载进来用于计算。然而在训练过程中会产生许多中间层的变量和权重,这时 DDR3 的回写速度无法满足需求。因此,在 TPU v2 的训练过程中,如下图所示,我们将 DDR3 与 Vector Memory 放在一起,并将 DDR3 的位置换成 HBM,从而加速了 20 倍的读写速度。

TPU 计算核心

标量单元(Scalar Unit)

上图是 TPU 核心的简单图示,我们可以看到标量单元是处理计算的起点,它从指令存储器中取出完整的 VLIW(超长指令集),执行其中的标量操作,并将指令传递给向量和矩阵单元进行后续处理。VLIW 由两个标量槽、四个向量槽(其中两个用于向量加载/存储)、两个矩阵槽(一个推和一个弹出)、一个杂项槽(一个简单的例子是延迟指令)和六个立即数组成。

那我们看一下指令到底是从哪里获得的。Core Sequencer 不再从 CPU 获取指令,而是从 Instruction Mem 取出 VLIW 指令,使用 4K 32-bit 的标量内存来执行标量运算,有 32 个 32 位的标量寄存器,而将向量指令送到 VPU。322-bit 宽的 VLIM 可以发送 8 个操作,两个标量,两个向量 ALU,向量 load,向量 store,和一对从矩阵乘法来的排队数据。

矢量单元(Vector Unit)

如下面右侧的图所示,和 Scalar Unit 相连接的就是 Vector Unit,下图左图是 Vector Unit 其中的一个 Vector Lane(矢量通道),整个 Vector Unit 包含 128 个这样的矢量通道。每个通道包含一个额外的 8 路执行维度,称为子通道。每个子通道配备一个双发射 32 位 ALU,并连接到一个 32 深度的寄存器文件。这种设计允许矢量计算单元在每个时钟周期内同时操作 8 组 128 宽度的矢量,子通道设计提高了矢量与矩阵计算的比例,特别适用于批量归一化操作。

矩阵乘法单元(MXU)

MXU 一直是 TPU 的核心,TPU v2 选择使用 $128 \times 128$ 的 MXU 而不是和 TPU v1 一样的 $256 \times 256$ 的 MXU,主要是由于利用率和面积效率的综合考虑。在下面这张图中,谷歌的模拟器表明,四个 $128 \times 128$ 的 MXU 的卷积模型利用率为 37%到 48%,明显高于一个 $256 \times 256$ 的 MXU(22%到 30%),且占用的芯片面积相同,原因在于某些卷积计算天生小于 $256 \times 256$,所以 MXU 的部分会闲置。这意味着在相同面积下,使用多个较小的 MXU 可以实现更高的计算效率。尽管十六个 $64 \times 64$ 的 MXU 利用率稍高(38%到 52%),但它们需要更多的面积,因为较小的 MXU 面积受 I/O 和控制线的限制,而不是乘法器。因此,$256 \times 256$ 的 MXU 在带宽、面积和利用率之间达到了更好的平衡,使其成为 TPU v2 的最佳选择。

除了变得更小,这一代的 MXU 还有以下主要特点:

  • 数值和精度:使用 bfloat16 格式进行乘法运算,该格式具有与 float32 相同的指数范围,但尾数位数较少。累加则使用 32 位浮点数进行。

  • 能效:与 IEEE 16 位浮点数相比,bfloat16 具有大约 1.5 倍的能效优势。

  • 采用和易用性:相比 fp16,bfloat16 对于深度学习更易于使用,因为它不需要进行损失缩放。由于这种易用性以及能效和面积效率,bfloat16 已被业界广为采用,也是深度学习最重要的 building blocks 之一。

转置/规约/置换核心(TRP Unit)

这一部分的核心用于进行 $128 \times 128$ 的矩阵的特殊计算操作(如转置 Transpose、规约 Reduction、置换 Permute),允许矩阵数据重新排布,提升编程易用性。这些步骤都是在训练过程中,特别是反向传播中经常遇到的矩阵相关场景,TPU v2 因此对于这一部分进行了特殊优化。

芯片互联方式

在搭建现代超级计算机的时候,芯片之间的互联就变成了至关重要的一件事情。TPUv1 是一种单芯片系统,作为协处理器用于推理。如果在单个芯片上训练谷歌的生产模型,需要数月时间。而 TPU v2 不同,在下图中我们可以看到,谷歌在板上设计了一个 Interconnect 的模块用于高带宽的规模化,在加强了 TPU v2 芯片间互联的能力,在此基础上搭建了 TPU v2 Supercomputer ("Pod")。

这个 Interconnect 模块具体来说就是下图中右下角的 Interconnect Router。

这个模块能够实现 2D 的环面连接(2D Torus),从而组成 Pod 超级计算机。每个芯片有四个自定义的核间互联(ICI)链接,每个链路都运行在 TPU v2 中,每个方向的带宽能达到 496 Gbit/s。ICI 使得芯片之间可以直接连接,因此仅使用每个芯片的一小部分就能构建一个超级计算机。直接连接简化了机架级别的部署,但在多机架系统中,机架必须是相邻的。

TPUv2 Pod 使用了一个 16x16 的二维环网(256 个芯片),其双向带宽为 32 条链路 x 496 Gbit/s = 15.9 Terabits/s

相比之下,一个单独的 Infiniband 交换机(用于 CPU 集群)连接 64 个主机(假设每个主机有四个 DSA 芯片)有 64 个端口,使用“仅有”的 100 Gbit/s 链路,其双向带宽最多为 6.4 Terabits/s。TPUv2 Pod 在提供了传统集群交换机 2.5 倍的双向带宽的同时,省去了 Infiniband 网络卡、Infiniband 交换机以及通过 CPU 主机通信的延迟成本,大大提升了整体计算的效率。

以上内容都是围绕着一个 TPU 模块来讲的,实际上本篇第一张图就展示了 TPU v2 模块一共是由多个芯片组成的,而这些芯片间的交互也就是给予上面我们讲到的互联模块完成的。如下图所示,一个互联模块会负责和多个 TPU 芯片和存储进行交互从而最大化计算效率。

总体的架构图就是下图,下图中的线越宽代表越大的带宽。所以说里面 TPU 核心和 HBM 存储的带宽是最大的,其次就是 TPU 核心、HBM 和 Interconnect Router 的带宽。

芯片架构平面图

下面是 TPU v2 的平面布局图,我们可以看到大部分区域都是用于蓝色的计算核心,内存系统和互连占据了剩下的一大半。两个 TPU 核心一上一下,互连路由器位于中间的圆孔中提供核心之间的互联,两个 MXU 分别位于顶部中心和底部中心提供最核心的脉动阵列计算能力,而剩下的地方布满了排线。


转载自:| https://www.cnblogs.com/ZOMI/articles/18558402 | header |
| ---------------------------------------------- | ------ |
| | |

标签:训练,AI,MXU,v2,芯片,TPU,Vector,TPUv2
From: https://www.cnblogs.com/ewr67/p/18600314

相关文章

  • 转载:【AI系统】CPU 基础
    CPU是CentralProcessingUnit(中央处理器)的简称,它负责执行指令和计算,控制着计算机的所有组件。CPU从无到有,从弱小到强大,经历了漫长发展过程,其间发生了无数的故事。在本文将着重介绍CPU基础内容,从CPU的发展历史入手,看看世界上第一块CPU是怎么诞生的,再到当代CPU的组成,为......
  • 转载:【AI系统】AI芯片驱动智能革命
    在整个AI系统的构建中,AI算法、AI框架、AI编译器、AI推理引擎等都是软件层面的概念,而AI芯片则是物理存在的实体,AI芯片是所有内容的重要基础。本系列文章将会通过对典型的AI模型结构的设计演进进行分析,来理解AI算法的计算体系如何影响AI芯片的设计指标,进而结合几种......
  • 转载:【AI系统】AI轻量化与并行策略
    了解AI计算模式对AI芯片设计和优化方向至关重要。本文将会接着从轻量化网络模型和大模型分布式并行两个主题来深入了解AI算法的发展现状,引发关于AI计算模式的思考。轻量化网络模型随着神经网络应用的普及,越来越多的模型需要在特定的硬件平台部署,如移动端和嵌入式设备,这......
  • 转载:【AI系统】模型演进与经典架构
    了解AI计算模式对AI芯片设计和优化方向至关重要。本文将会通过模型结构、压缩、轻量化和分布式几个内容,来深入了解AI算法的发展现状,引发关于AI计算模式的思考,重点围绕经典网络模型和模型量化压缩两方面进行展开。经典模型结构设计与演进神经网络的基本概念神经网络是A......
  • 转载:【AI系统】关键设计指标
    前面我们已经对AI的计算模式有了初步的认识,那么这些计算模式具体是如何和AI芯片设计结合起来的呢?接下来我们将从AI芯片关键设计指标的角度来进一步拓展对AI计算体系的思考。计算单位市场上当一款AI芯片产品发布时候,经常会通过一些指标数据说明产品的能力,比如芯片制程,......
  • 转载:【AI系统】计算之比特位宽
    在前面的深度学习计算模式里面我们提到了模型的量化操作,通过建立一种有效的数据映射关系,使得模型以较小的精度损失获得更好的模型执行效率的收益。模型量化的具体操作就是将高比特的数据转换为低比特位宽表示。本文我们将在前面的深度学习计算模式里面我们提到了模型的量化操作,通......
  • 转载:【AI系统】核心计算之矩阵乘
    AI模型中往往包含大量的矩阵乘运算,该算子的计算过程表现为较高的内存搬移和计算密度需求,所以矩阵乘的效率是AI芯片设计时性能评估的主要参考依据。本文我们一起来看一下矩阵乘运算在AI芯片的具体过程,了解它的执行性能是如何被优化实现的。从卷积到矩阵乘AI模型中的卷积层......
  • AI 口语学习应用 Speak 新一轮融资估值 10 亿美元;YouTube 推出 AI 多语言配音丨 RTE
       开发者朋友们大家好: 这里是「RTE开发者日报」,每天和大家一起看新闻、聊八卦。我们的社区编辑团队会整理分享RTE(Real-TimeEngagement)领域内「有话题的新闻」、「有态度的观点」、「有意思的数据」、「有思考的文章」、「有看点的会议」,但内容仅代表编......
  • 电子秤方案SIC8833芯片方案设计与研发
    厨房电子秤是通过主要元器件压力传感器和ADC芯片、MCU控制等多种芯片设计开发。采用高精度传感器、ADC芯片和先进的数据处理技术,可将物体的重量以千克和磅为单位进行准确测量和记录,同时它还具备低压报警、过载提示、自动归零等功能。在做厨房电子秤方案开发时,设置厨房电......
  • JVM 垃圾回收时产生的 concurrent mode failure 的原因是什么?
    JVM垃圾回收时产生的concurrentmodefailure的原因是什么?在JVM中,concurrentmodefailure是垃圾回收器(通常是CMS,即ConcurrentMark-SweepGC)在执行并发垃圾回收时,因老年代空间不足导致的失败。这种失败会迫使JVM采用Stop-The-World(STW)的方式,执行一次单线程的FullG......