我们有幸邀请到了鹏城实验室高效能云计算所算法工程师陶恒韬老师来进行鹏城。脑海大模型训练过程的讲解。在课程中,陶老师从工程化的角度,对鹏城。脑海大模型训练语料处理、模型训练优化、模型应用等方面做出了全面详细的经验分享。
鹏城。脑海大模型介绍
鹏城・脑海(PengCheng Mind)大模型计划:旨在打造自然语言预训练大模型底座,将实现 2000 亿参数稠密型 AI 大模型
鹏城・脑海大模型:
- 以中文为核心的文本大模型基座
- 2000 亿级别参数,稠密型自回归式语言模型
- 依托 “鹏城云脑 II” 千卡集群,基于昇思 MindSpore 多维分布式并行技术进行预训练
- 保障大模型的数据安全隐私,输出内容符合中文核心价值观
- 大模型能力持续演进,快速迭代更新
训练语料处理和使用
语料清洗工程化:收集数据 —— 格式预处理 —— 数据清洗 —— 脱敏过滤 —— 样本间和样本内去重 —— 数据集质量评估
- 脱敏过滤:通过分类模型进行过滤,并不断迭代优化,包含敏感词和文本过滤器、广告词过滤器、质量评估器
- 样本间和样本内去重:样本间采用计算 hash 去重,样本内采用 n-gram 算法去重
- 数据集分布:中文为核心,覆盖 40 个不同领域,以经济、文学、教育、医学、法律等为主导
200B 模型训练过程
模型结构:Transformer Decoder only,延续 GPT-175B 模型结构,并在其基础上进行了相应拓展
- 延续 PanGu-α,在 Transformer decoder 层上添加 top query 查询层,用于预测下一 token
- 位置编码采用旋转位置编码(ROPE)
- 使用 FlashAttention 进行加速优化
训练策略:对比 PanGu-α,重构训练策略,采用数据 + 模型 + 流水线 + 优化器并行
- 重计算:时间换空间,不保存正向算子计算结果,在计算反向算子时,如需要相应正向结果,再重新计算正向算子
- 选择性重算:整网重算存在显存空余,选择部分算子重算,提升显存利用率和训练效率
- 细粒度重算:针对不同层的算子进行差异化的重算配置,搭配流水线并行的均衡配置,提高可配置选择性重算的空间
分布式并行配置:机柜之间的带宽 < 机器之间的带宽 < 机器内卡之间的带宽,针对训练资源量(卡数和机器数)调整确认 pipeline 数量,尽量保证流水线并行的切分在机柜之间执行,且 pipeline 切分不能过细
大集群 + 大模型训练的稳定性保障
- 算法健壮性:混合精度训练,针对精度敏感的 Layer norm 和 softmax 采用 FP32
- 训练故障恢复优化:自动监控 + 临终遗言 + 编译优化
鹏城・脑海模型全流程开发:数据预处理 — 模型预训练 — 微调(SFT)-- 对齐(RLHF)-- 模型部署 — 模型应用
【下节课程预告】
下周六(2024 年 1 月 20 日)我们即将迎来国产开源大语言模型另一位重磅玩家 ——CPM-Bee 中英文双语基座大模型。在下节课程中,我们非常荣幸地邀请到了 OpenBMB 开源社区技术负责人、清华大学硕士,同时也是 CPM-Bee 开源搭模型项目主要维护者 龚柏涛老师来进行 CPM-Bee 模型的讲解。
这里我们稍稍剧透下课程内容,各位小伙伴 1 月 20 日 14:00-15:30 不见不散!
- CPM-Bee 模型结构:CPM-Bee 的模型结构介绍
- CPM-Bee 数据格式:介绍 CPM-Bee 的结构化输入输出数据格式,以及相应的分词、位置编码的方法
- CPM-Bee 微调及推理演示:基于例子演示,介绍 Mindspore+CPM-Bee 的使用方法,包括推理、微调等
昇思 MindSpore 技术公开课大模型专题第二期课程火爆来袭!未报名的小伙伴抓紧时间参与课程,并同步加入课程群,有免费丰富的课程资源在等着你。课程同步赋能华为 ICT 大赛 2023-2024,助力各位选手取得理想成绩!
标签:鹏城,鹏程,CPM,训练,模型,Bee,重算,详解,工程化 From: https://blog.51cto.com/u_15214399/9220565