首页 > 其他分享 >机器学习洞察 | 分布式训练让机器学习更加快速准确 分布式 机器学习 PyTorch Amazon SageMaker

机器学习洞察 | 分布式训练让机器学习更加快速准确 分布式 机器学习 PyTorch Amazon SageMaker

时间:2023-07-10 23:55:29浏览次数:47  
标签:机器 训练 模型 Reduce 学习 SageMaker GPU 分布式

机器学习能够基于数据发现一般化规律的优势日益突显,我们看到有越来越多的开发者关注如何训练出更快速、更准确的机器学习模型,而分布式训练 (Distributed Training) 则能够大幅加速这一进程。

亚马逊云科技开发者社区为开发者们提供全球的开发技术资源。这里有技术文档、开发案例、技术专栏、培训视频、活动与竞赛等。帮助中国开发者对接世界最前沿技术,观点,和项目,并将中国优秀开发者或技术推荐给全球云社区。如果你还没有关注/收藏,看到这里请一定不要匆匆划过,点这里让它成为你的技术宝库!

 

关于在亚马逊云科技上进行分布式训练的话题,在各种场合和论坛我们讨论了很多。随着 PyTorch 这一开源机器学习框架被越来越多的开发者在生产环境中使用,我们也将围绕它展开话题。本文我们将分别探讨在 PyTorch 上的两种分布式训练:数据分布式训练,以及模型分布式训练。

首先我们来看看当今机器学习模型训练的演进趋势中,开发者对模型训练结果的两种迫切需求:

  • 更快速

  • 更准确

更快速的数据分布式训练

对于机器学习模型训练来说,将庞大的训练数据有效拆分,有助于加快训练速度。

image.png

常见的数据分布式训练方式有两种:

基于参数服务器的数据分布式训练

image.png

(异步)参数服务器 (Parameter Server) : 如 TensorFlow Parameter Server Strategy

对于参数服务器 (Parameter Server) 来说,计算节点被分成两种:

  • Workers:保留一部分的训练数据,并且执行计算;

  • Servers:共同维持全局共享的模型参数。

而 Workers 只和 Servers 有通信,Workers 相互之间没有通信。

参数服务器方式的优点开发者都很熟悉就不赘述了,而参数服务器的一个主要问题是它们对可用网络带宽的利用不够理想,Servers 常常成为通信瓶颈。

由于梯度在反向传递期间按顺序可用,因此在任何给定的时刻,从不同服务器发送和接收的数据量都存在不平衡。有些服务器正在接收和发送更多的数据,有些很少甚至没有。随着参数服务器数量的增加,这个问题变得更加严重。

基于 Ring ALL-Reduce 的数据分布式训练

image.png

(同步)Ring All-Reduce: 如 Horovod 和 PyTorch DDP

Ring All-Reduce 的网络连接是一个环形,这样就不需要单独的 GPU 做 Server。6 个 GPU 独立做计算,用各自的数据计算出各自的随机梯度,然后拿 6 个随机梯度的相加之和来更新模型参数。为了求 6 个随机梯度之和,我们需要做 All-Reduce。在全部的 GPU 都完成计算之后,通过 Ring All-Reduce 转 2 圈(第 1 圈加和,第 2 圈广播这个加和),每个 GPU 就有了 6 个梯度的相加之和。注意算法必须是同步算法,因为 All-Reduce 需要同步(即等待所有的 GPU 计算出它们的梯度)。

Ring All-Reduce 的主要问题是:

  • 通过 Ring All-Reduce 转圈传递信息时,例如:G0 传递给 G1 时,其它 GPU 都在闲置状态;因此,这种步进时间越长,GPU 闲置时间就越长;而 GPU 越多这种通信代价就越大;

  • All-Reduce 的资源会占用宝贵的 GPU 资源,所以会在扩展的时候,面临效率挑战。

实例:Amazon SageMaker 数据并行的分布式方法

那么如何尽可能消除上述弊端?我们通过亚马逊云科技在 Amazon SageMaker 上的数据并行实例来演示如何解决这一问题。

SageMaker 从头开始构建新的 All-Reduce 算法,以充分利用亚马逊云科技网络和实例拓扑,利用 EC2 实例之间的节点到节点通信。

image.png

这样做的优势在于:

  • 引入了一种名为平衡融合缓冲区的新技术,以充分利用带宽。GPU 中的缓冲区将梯度保持到阈值大小,然后复制到 CPU 内存,分片成 N 个部分,然后将第 i 个部分发送到第 i 个服务器。平衡服务器发送和接收的数据,有效利用带宽。

  • 可以有效地将 All-Reduce 从 GPU 转移到 CPU。

我们能够重叠向后传递和 All-Reduce,从而缩短步进时间,释放 GPU 资源用于计算。

在这里分享关键的 PyTorch 代码步骤:

  1. 更新训练脚本

与非分布式训练不同的是,在这里我们输入 mdistributed.dataparallel.torch.torch_smdbp 的模型:

# Import SMDataParallel PyTorch Modules
import smdistributed.dataparallel.torch.torch_smddp
  1. 提交训练任务

在这里指定一个开关,打开数据并行即可。这样可以非常方便地调试,而不用在底层配置上花费时间。

 
# Training using SMDataParallel Distributed Training Framework
      distribution={"smdistributed": 
          {"dataparallel": 
                 {"enabled": True
                 }
          }
       },
      debugger_hook_config=False,

您可以在 GitHub 上查看完整代码示例:

Amazon Sagemaker Examples

更准确的模型分布式训练

众所周知,模型越大,那么预测结果的准确度越高。

image.png

那么在面对庞大模型的时候如何进行模型并行?我们推荐开发者使用以下方式:

自动模型拆分

主要的优化策略基于内存使用和计算负载,从而更好地实现大模型的兼容。

  • 平衡内存使用:平衡每台设备上存储的可训练参数和激活次数的总数。

  • 平衡计算负载:平衡每台设备中执行的操作次数。

流水线执行计划

Amazon Sagemaker PyTorch SDK 中可以选择两种方式实现:

  • 简单流水线:需要等前项全部计算完之后才能进行后项的计算。

image.png

  • 交错流水线:通过更高效利用 GPU 来实现更好的性能,包括模型并行等方式。

image.png

Amazon SageMaker 分布式模型并行库的核心功能是流水线执行 (Pipeline Execution Schedule) ,它决定了模型训练期间跨设备进行计算和数据处理的顺序。流水线是一种通过让 GPU 在不同的数据样本上同时进行计算,从而在模型并行度中实现真正的并行化技术,并克服顺序计算造成的性能损失。

流水线基于将一个小批次拆分为微批次,然后逐个输入到训练管道中,并遵循库运行时定义的执行计划。微批次是给定训练微型批次的较小子集。管道调度决定了在每个时隙由哪个设备执行哪个微批次。例如,根据流水线计划和模型分区,GPU i 可能会在微批处理 b 上执行(向前或向后)计算,而 GPU i+1 对微批处理 b+1 执行计算,从而使两个 GPU 同时处于活动状态。

该库提供了两种不同的流水线计划,简单式和交错式,可以使用 SageMaker Python SDK 中的工作流参数进行配置。在大多数情况下,交错流水线可以通过更高效地利用 GPU 来实现更好的性能。

更多相关信息可参考:

https://docs.aws.amazon.com/zh_cn/sagemaker/latest/dg/model-parallel-core-features.html?trk=cndc-detail

PyTorch 模型并行的分布式训练的关键步骤如下(以PyTorch SageMaker Distributed Model Parallel GPT2 代码为例):

image.png

  1. 更新训练脚本

a. Import 模型并行模块

b. 带入参数的模型并行的初始化 smp.int (smp_config)

详细代码请参考:https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel/gpt2/train_gpt_simple.py?trk=cndc-detail

  1. 提交训练任务

a. 消息传递接口 (MPI) 是编程并行计算机程序的基本通信协议,这里可描述每台机器上的 GPU 数量等参数

b. 激活模型分布式训练框架和相关配置等

详细代码请参考:https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel/gpt2/train_gpt_simple.py?trk=cndc-detail

实例:Amazon SageMaker 分布式训练

训练医疗计算机视觉 (CV) 模型需要可扩展的计算和存储基础架构。下图案例向您展示如何将医疗语义分割训练工作负载从 90 小时减少到 4 小时。

image.png

图片来源:官方博客《使用 Amazon SageMaker 训练大规模医疗计算机视觉模型

解决方案中使用了 Amazon SageMaker 处理进行分布式数据处理,使用 SageMaker 分布式训练库来加快模型训练。数据 I/O、转换和网络架构是使用 PyTorch 和面向人工智能的医疗开放网络 (MONAI) 库构建的。

 

在下篇文章中,我们将继续关注无服务器推理,请持续关注 Build On Cloud 微信公众号。

往期推荐

 

作者黄浩文 亚马逊云科技资深开发者布道师,专注于 AI/ML、Data Science 等。拥有 20 多年电信、移动互联网以及云计算等行业架构设计、技术及创业管理等丰富经验,曾就职于 Microsoft、Sun Microsystems、中国电信等企业,专注为游戏、电商、媒体和广告等企业客户提供 AI/ML、数据分析和企业数字化转型等解决方案咨询服务。 文章来源:

https://dev.amazoncloud.cn/column/article/63e32dd06b109935d3b77259?sc_medium=regulartraffic&sc_campaign=crossplatform&sc_channel=bokey

标签:机器,训练,模型,Reduce,学习,SageMaker,GPU,分布式
From: https://www.cnblogs.com/AmazonwebService/p/17542707.html

相关文章

  • 六月学习之Haproxy高级功能(IP地址透传)
    6、Haproxy高级功能6.5、IP地址透传web服务器中记录客户端的真实IP地址,主要用于访问统计、安全防护、行为分析、区域排行等场景6.5.1、七层负载地址透传Haproxy工作于反向代理模式,其发往服务器的请求中的客户端IP均为Haproxy主机的地址而非真正客户端的地址,这会使得服务器的日志信......
  • C++中set的用法学习
    Set是C++ STL(标准模板库)的一个容器类,它用于存储不同的值,并且可以按照特定顺序进行访问和操作。Set是C++STL(标准模板库)的一个容器类,它用于存储不同的值,并且可以按照特定顺序进行访问和操作。Set是一种基于红黑树实现的关联容器,也就是说它的元素按照固定的顺序排列,且每个元素都唯一......
  • 出去面试人家狂问ZK分布式锁13个连环炮,你觉得你能抗住吗?
    前言这篇文章我们来剖析Zookeeper分布式锁的实现框架Curator的源码,看看Curator是如何实现Zookeeper分布式锁的,以及它提供的哪些其它的特性。Curator框架是封装对于zk操作的api,其中就包括了对分布式锁的实现,当然Curator框架也包括其它的功能,分布式锁只是Curator的一部分功能。一、ZK......
  • Unity3D高级编程主程手记 学习笔记五:网络通讯
    1.C#实现TCP1.1实现所需APIC#提供了TCP的Socket连接API。一般的游戏项目我们不会使用阻塞方式连接和接收。因为我们不会让游戏卡住等待传输链接,大多数情况下我们还是会使用更加平滑的异步操作作为网络连接和收发的操作。常用的API如下:BeginConnect:开始连接Be......
  • java学习
    spring:1前端参数如果放在请求体,且是post请求,后端需加上@ResquestBody才能接受。后端@RequestBody注解对应的类在将HTTP的输入流(含请求体)装配到目标类(即:@RequestBody后面的类)时,会根据json字符串中的key来匹配对应实体类的属性,如果匹配一致且json中的该key对应的值符合(或可......
  • Golang学习笔记-常量
    声明常量声明常量关键字:constconst{常量名}{常量类型}或const{常量名}={常量值}预定义常量预定义常量:true,false,iota其中true,false是布尔类型,iota是一个自增常量,从0开始取值它每出现一次,它自身的值会加1iota用法const{ money0=iota//值为0......
  • Golang学习笔记-变量
    声明变量声明变量关键字varvar{变量名称}{变量类型}例子//声明一个变量为v1的整型变量,未赋值时默认值为0varv1int//声明一个变量为v2的浮点型变量,未赋值时默认值为0varv2float32//声明一个变量为v3的数组变量(数组中的元素为整型),未赋值时默认值为nilvarv3......
  • 开源一套接口自动化测试平台,大家一起学习交流
    一、概述Rocket是一款接口自动化测试平台,服务端是Python,前端Vue,源码下载方式放到末尾了。关键依赖:fastapihttprunner(v3.1.11版本)apschedulerelement-ui二、功能模块核心功能模块基本开发完成,可以直接拿来用,一些细节功能待开发,具体如下:系统管理用户管理字典管理......
  • 【安全学习之路】Day32
    后面的明天再学......
  • 矩阵优化学习笔记
    前言矩阵优化是一种比较靠思维的优化算法,一般简单题考的比较少。个人认为矩阵优化中在运用,所以放了几道题目来讲解。定义矩阵一个\(m\timesn\)的矩阵是一个由\(m\)行\(n\)列元素排列成的矩形阵列。大概长成下面这个样子的。\[A=\underbrace{\begin{bmatrix}a_{1,1......