首页 > 其他分享 >AGI大模型学习路线,从零基础到就业,神仙级教程你学会了吗?

AGI大模型学习路线,从零基础到就业,神仙级教程你学会了吗?

时间:2024-10-25 21:50:04浏览次数:9  
标签:神仙 教程 训练 AGI 模型 微调 学习 LLM com

大模型学习路线

建议先从主流的Llama开始,然后选用中文的Qwen/Baichuan/ChatGLM,先快速上手体验prompt工程,然后再学习其架构,跑微调脚本

如果要深入学习,建议再按以下步骤,从更基础的GPT和BERT学起,因为底层是相通的,而且实际落地到一个系统中,应该也是大模型结合小模型(大模型在做判别性的任务上,比BERT优势不是特别大)

可以参考如下方案,按需学习。

一、简述

按个人偏好总结了学习目标与路径,后续将陆续整理相应学习资料,并输出学习笔记。

学习思路: 快速应用Transformer等轮子来微调和使用LLM,同时深入学习NLP预训练模型原理和推理部署(因为偏底层的东西变化不大)

学习目标
  • 熟悉主流LLM(Llama, ChatGLM, Qwen)的技术架构和技术细节;有实际应用RAG、PEFT和SFT的项目经验
  • 较强的NLP基础,熟悉BERT、GPT、Transformer、T5等预训练语言模型的实现,有对话系统相关研发经验
  • 掌握TensorRT-LLM、vLLM等主流推理加速框架,熟悉模型量化、FlashAttention等推理加速技术方案,对分布式训练DeepSpeed框架有实战经验
  • 熟悉Pytorch,具备扎实的深度学习和机器学习基础,基本掌握C/C++、Cuda和计算机系统原理
参考项目

torchkeras

参考书籍

Alt text

参考课程
教程
学习方式
  • 力求快速应用 (先调包,再深入学习)
  • 在实践中动手学习,力求搞懂每个关键点
  • 【原理学习】+【代码实践】 + 【输出总结】
基础知识
学习纲要

应用

1、Zero Shot / Few Shot 快速开箱即用

  • Prompt调优:
    • 上下文学习In-Context Learning, ICL
    • 思维链 Chain of Thought, COT
  • RAG (Retrieval Augmented Generation)
    • 基于文档分块、向量索引和LLM生成,如Langchain文档问答

2、领域数据-指令微调LLM

  • PEFT (Parameter-Efficient Fine-Tuning):
    • LORA (Low-Rank Adaption of LLMs)
    • QLORA
    • SLORA
    • P-Tuning v2

参数高效的微调,适合用于纠正模型输出格式(PEFT上限不高,并向LLM输入的知识有限)

  • SFT (Supervised Fintuning):
    • 全参数监督微调,使用prompt指令样本全量微调LLM(可以注入新的领域知识)
    • 需要控制样本配比(领域数据 + 通用数据)

3、对齐

  • 对齐人类偏好 (RLHF):
    • RewardModel 奖励模型 (排序标注,判断答案价值)
    • RL (PPO, 更新SFT模型)

专注基于强化学习的大语言模型对齐,有前景的方向是SuperhumanAI AutoALign

4、预训练

  • 小模型预训练 (GPT2, TinyLlama)不考虑训练参数规模较大的语言模型

5、训练推理优化

  • 模型量化
  • 推理加速
  • 蒸馏
  • 推理框架(vLLM、TensorRT-LLM、Llama.cpp)

二、学习目录

第1章 技术与需求分析

1.1 技术分析

  • LLM的发展历程与趋势
  • 开源LLM生态

1.2 市场需求分析

  • 需求和就业市场分析
    • 预训练、对齐
    • 微调、应用
    • 推理加速
  • 商业落地分析(2C、2B应用场景)
第2章 ChatGPT背景与原理

2.1 ChatGPT的工作原理

  • 预训练与提示学习阶段
  • 结果评价与奖励建模阶段
  • 强化学习阶段

2.2 算法细节

  • 标注数据
  • 建模思路
第3章 预训练语言模型

3.1 Transformer

3.2 GPT

3.3 BERT

3.4 T5系列

  • T5-Pegasus对话摘要微调
  • PromptClue关键词抽取微调

3.5 UniLM

  • UniLM模型介绍
  • 基于夸夸闲聊数据的UniLM模型实战
第4章 提示学习与大型语言模型

4.1 提示学习PromptLearning

  • 提示学习介绍
  • 提示模板设计
  • 答案空间映射设计

4.2 上下文学习 ContextLearning

  • 上下文学习介绍
  • 预训练阶段提升上下文
  • 推理阶段优化上下文

4.3 指令数据构建

第5章 开源大型语言模型

5.1 Mistral

  • Mistral 7B Tutorial: datacamp.com/tutorial/m
  • Mistral-8X7B-MOE的模型结构
  • Mistral -8X7B-MOE源码解析
  • Mistral-7B微调

5.2 Llama

5.3 ChatGLM

第6章 LLM微调

6.1 全量指令微调SFT

6.2 高效微调PEFT

LORA系列

其他

  • P-Tuning V2介绍
  • P-Tuning v2微调实战

实战

  • HuggingFace PEFT库详解
  • Deepspeed-Chat SFT 实践
第7章 大型语言模型预训练

7.1 预训练模型中的分词器

7.2 分布式训练

  • 分布式训练概述
  • 分布式训练并行策略
  • 分布式训练的集群架构
  • 分布式深度学习框架
    • Megatron-LM详解
    • DeepSpeed详解
  • 实践
    • 基于DeepSpeed的GLM预训练实战
    • 基于DeepSpeed的LLaMA 分布式训练实践

7.3 MOE混合专家模型

  • 基础概念
  • Mixstral-8X7B-MOE-介绍
  • 相关论文
第8章 LLM应用

8.1 推理规划

  • 思维链提示(Chain-of-Thought Prompting)
    • 论文
    • 实战
  • 由少至多提示(Least-to-Most Prompting)

8.2 综合应用框架

8.3 智能代理AI Agent

第9章 LLM加速

9.1 注意力优化

9.2 CPU推理加速

  • Llama.c应用与代码详解
  • Llama.cpp应用与代码详解
  • ChatGLM.cpp应用与代码详解

9.3 推理优化框架

  • vLLM推理框架实践
  • TensorRT-LLM应用与代码详解

9.4 训练加速

第10章 强化学习

10.1 强化学习概述

10.2 强化学习环境

10.3 强化学习算法

  • Q-learning算法
  • DQN算法
  • Policy Gradient算法
  • Actor-Critic算法
第11章 PPO算法与RLHF理论实战

11.1 近端策略优化算法PPO

  • PPO:Proximal Policy Optimization Algorithms 论文
  • PPO介绍
    • 广义优势估计
    • PPO算法原理剖析
    • PPO算法对比与评价
    • 使用PPO算法进行RLHF的N步实现细节: cnblogs.com/huggingface
  • PPO实战

11.2 基于人类反馈的强化学习RLHF

  • InstructGPT模型分析
    • InstructGPT:Training language models to follow instructions with human feedback
  • 论文RLHF:Augmenting Reinforcement Learning with Human Feedback
  • RLHF的流程
    • RLHF内部剖析
    • RLHF价值分析
    • RLHF问题分析
    • 数据收集与模型训练
  • RLHF实践
  • MOSS-RLHF 实践
    • 奖励模型训练
    • PPO 微调
第12章 类ChatGPT实战

12.1 任务设计

12.2 数据准备

第13章 语言模型训练数据

13.1 数据来源

  • 通用数据
  • 专业数据

13.2 数据处理

  • 低质过滤
  • 冗余去除
  • 隐私消除

13.3 数据影响分析

  • 数据规模影响
  • 数据质量影响
  • 数据多样性影响

13.4 开源数据集合

  • Pile
  • ROOTS
  • RefinedWeb
  • SlimPajama
第14章 大语言模型评估

14.1 模型评估概述

14.2 大语言模型评估体系

  • 知识与能力
  • 伦理与安全
  • 垂直领域评估

14.3 大语言模型评估方法

  • 评估指标
  • 评估方法

14.4 大语言模型评估实践

  • 基础模型评估
  • SFT/RL 模型评估

第15章 多模态大模型

  • 多模态大模型调研
  • 实战
第16章 大模型原生应用

16.1 落地调研

  • 应用分析
    • 提供大模型基础服务:ChatGPT、Gemini、文心一言和GLM4等,主要面向ToC/ToB提供chat能力(内容创作、代码开发等),通过会员收费或按Token计费
    • ToB提供成套解决方案
    • 集成现有接口二次开发,应用开发
    • 开源模型增量预训练、全量微调、高效微调,行业内落地

模型最终还需落地解决实际问题,创造价值:优化现有问题、满足、甚至创造用户需求。

总的来说,就是规模化、自动化人的工作,替代人工,批量化、大规模生成或提供服务。

16.2 应用分析

一些思考

在企业里面做7B、13B量级的微调,主要就是在搞数据、样本,技术壁垒不高。预训练壁垒高,因为需要烧钱堆经验。

在这个日新月异的时代,如何紧跟行业主流发展,并具备不可替代性是个难题:

  • 稀缺(不可替代性)
  • 稳定(业务和表层技术天天变,但底层的理论变化不大)
  • 需求持续(最好是类似衣食住行的刚需,否则技术 过时/热度褪去/不达预期,泡沫崩溃)
  • 不能越老越吃香(放到绝大多数行业都适用:不能经验积累,持续长期创造价值)
  • 壁垒(技术、业务、资本上有垄断)

尽量往底层和工程化上靠,学习相对不变的技术(理论上变化很难),迁移到稳定或有前景的行业,不断提升自己的学习效率:

  • 计算机系统知识(训练、推理、开发,模型推理部署工程化)
  • 数学(深入学习并实践)

在这里插入图片描述

如何学习AI大模型?

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

在这里插入图片描述

标签:神仙,教程,训练,AGI,模型,微调,学习,LLM,com
From: https://blog.csdn.net/2401_85343303/article/details/143244528

相关文章

  • WEBRTC教程:局域网怎么调试,http://172.19.18.101:8080 ,无法访问摄像头和麦克风,请检查
    在局域网中使用WebRTC时,无法访问摄像头和麦克风通常是因为浏览器的安全策略限制了getUserMediaAPI的使用。如果你在非localhost或非HTTPS环境下访问网页,浏览器会阻止访问摄像头和麦克风。解决方案在局域网中调试WebRTC时,你有几个选项来解决这个问题:1.使用lo......
  • 搭建YOLOv8实现裂缝缺陷识别全流程教程:从源码下载到模型测试
    教程目的:yolov8的安装配置到训练模型,并完成使用模型进行识别前提注意:yolov8要求Python需要版本必需大于等于3.10,我用的Python3.12.3,这里分享下Python3.12.3的安装器=>夸克网盘分享以及教程中用到的yolov8源码、权重文件、GPU配套版本的Torch=> 夸克网盘分享大致步骤1.......
  • Altium Designer 入门基础教程(六)
    本文章继续接着《Altium Designer入门基础教程(五)》的内容往下介绍:七、AD画板的整个流程步骤 L.板层数和设计规则的设置a.板层数的设置开始画板前,根据板框大小和元器件的多少可以大概评估一下要用到几层板,先设置好层数,再开始布局画板工作;或者在布局画板的过程中,发现实在......
  • Altium Designer 入门基础教程(七)
    本文章继续接着《Altium Designer入门基础教程(六)》的内容往下介绍: M.元器件的布局布线设计规则设置完成之后,就开始元器件的布局与布线。把整个原理图的元器件拖到板框上方,然后选中红色框框区域删除掉。把输入法切换到美式键盘   设置布局栅格,一般默认即可  a......
  • 2024版最新黑客技术自学教程,黑客入门到精通,收藏这篇就够了
    学前感言1.这是一条坚持的道路,三分钟的热情可以放弃往下看了.2.多练多想,不要离开了教程什么都不会了.最好看完教程自己独立完成技术方面的开发.3.有时多google,baidu,我们往往都遇不到好心的大神,谁会无聊天天给你做解答.4.遇到实在搞不懂的,可以先放放,以后再来......
  • 一月涨粉2W的AI云彩类账号教程拆解
    给大家分享一个非常适合新手,且可持续性长的AI赛道:AI云彩绘图可以看下图,这个账号目前近20W粉,在上个月底是近18W粉,短短一个月涨粉2W,在这个体量还有这样的增长速度,而且每一篇的评论互动率,是非常牛的。再者,他的笔记构成相当简洁,仅包含两张云彩的照片,辅以一本关于云彩的科普读......
  • 完整的 Markdown 教程:从基础到高级
    #Markdown Markdown 是一种轻量级标记语言,可以轻松设置文本格式。它广泛用于GitHub、Dev.to等许多平台,用于创建结构良好的文档,从README文件到博客甚至文档。在本教程中,我将向您介绍Markdown的基本知识—从基本语法到高级格式设置技术,这些技术将帮助您创建更专业、......
  • centos7.6离线安装Redmine 5.1.1教程
    centos7.6离线安装Redmine5.1.1教程网络上离线安装redmine资料少,有帮助大家请点赞总体思路:先申请一台云主机(天翼云、阿里、腾讯),安装相同版本的centos操作系统,有两个好处:一是用云主机下载Redmine的RPM包以及所有依赖,再复制到离线centos服务器上;二是可以先在云主机上安......
  • 为什么需要敏捷(Agile)
    因为敏捷(Agile)是一种以人为核心,建立在参与、交流、反馈和调整基础上的项目管理和产品开发方法。它在面对快速变化的市场环境中,帮助组织灵活应对变化,提高工作效率,优化产品质量。敏捷(Agile)方法论的主要目标是通过持续、迭代和增量的方式,提升软件开发和项目管理的效率和效果。为......
  • HarmonyOS NEXT实战教程:菜谱App
    随着鸿蒙系统5.0的发布,兼容的机型越来越多,对于开发者来说机会也越来越多,大家不要气馁,学习鸿蒙肯定会有用武之地,我们要做的就是做好准备。今天跟大家分享实战教程是一个菜谱App。首页这个页面可能会让初学者望而生畏,看起来比较复杂。但是仔细分析一下并不太难。幽蓝君再啰嗦一句......