申明:九析唯一授权【超级网红系列课程——AI 大模型全栈架构师】系列课程
一、模型篇大纲
-
大语言模型基础
-
大语言模型预训练
-
大语言模型微调
-
大语言模型强化对齐
-
大语言模型评估
-
大语言模型压缩
-
大语言模型工程
-
大语言模型安全
-
多模态模型
-
大模型经典论文
-
Pytorch 框架与经典卷积神经网络实战
二、语言模型的发展
自从20世纪50年代图灵测试被提出以来,人类一直在探索如何用机器掌握语言智能。语言建模在过去的20年中得到了广泛的研究,从统计语言模型发展为神经语言模型。
2.1 统计语言模型
早期的自然语言处理(NLP)中,统计语言模型是重要工具。它们通过分析词序列的出现频率来预测下一个词,利用大规模语料库中的词频信息来建模语言的概率分布。
2.2 神经网络语言模型
随着深度学习的出现,神经网络语言模型开始兴起。这些模型使用神经网络来学习语言的复杂模式,提高了语言理解的能力。
2.3 预训练语言模型
近年来,基于 Transformer 架构的预训练语言模型在解决各种自然语言处理任务方面表现出强大的能力。
2.4 大语言模型
研究人员发现小规模语言模型(比如:Bert)的规模可以提高模型的性能和上下文能力,因此通过将参数和数据增加到更大的尺寸来进一步放大该效应,并且研究团队创造了一个术语——大语言模型(LLM),这里的大语言模型本质就是大型的预训练模型。
三、大语言模型基础
3.1 深度学习
-
基础知识:神经元、单层感知机和多层感知机。
-
距离计算:向量距离以及相似度。
-
评估方式:机器学习常用的评估指标,如精度、准确率、召回率、PR曲线、ROC及AUC等。
-
优化策略:梯度下降算法。
-
激活函数:激活函数的定义、作用、种类及选择。
-
损失函数:交叉熵损失函数、MSE 损失函数、CTC 损失函数及 Lb 损失函数。
-
模型调优:学习率、注意力机制、正则化、调整 Batch Size、参数初始化。
-
归一化算法:层归一化及归一化本身。
3.2 神经网络
3.3 经典神经网络模型
以下较经典的神经网络,比如:
-
卷积神经网络(CNN)
-
循环神经网络(RNN)
-
门控循环单元(GRU)
-
长、短期记忆网络(LSTM)
-
Transformer网络模型
针对,Transformer 模型,我们会重点介绍 Transformer 架构,包括输入模块、多头自注意力模块、残差连接与层归一化、前馈神经网络及解码器等等。
3.4 解锁大语言模型
解锁下大语言模型,带大家了解下大语言模型的关键技术、涌现能力、推理能力及缩放定律等。
3.5 语言表示
我们都知道人类语言都是由一个个单词所组成的,词作为语言的基础单位,有很多方向需要深入研究才能被机器模型所理解,我们会带大家重点讲解下词表示和分词技术。
3.6 预训练语言模型
关于预训练语言模型,我们会带领大家探寻其中最优秀的两个代表:GPT系列家族(Decoder架构)和 BERT(Encoder架构)。
3.7 大话大语言模型
在整个大语言模型基础介绍最后呢,我们也会大话一下大语言模型,重点我们会介绍 InstructGPT 和 LlaMa 模型系列。
可以直接观看视频:九析带你轻松完爆AI大模型 别忘了一键三连,您的支持是九析更新的最大动力。
感谢各位老爷的观看!!!
标签:完爆,Transformer,九析,模型,神经网络,函数,归一化,语言 From: https://blog.csdn.net/yangpiqiulaotou/article/details/143659432