文章目录
- 前言
- 一、大语言模型进化树
- 二、GPT-1:生成式预训练的开端
- 三、GPT-2:Zero-shot
- 四、GPT-3:Few-shot
- 五、ChatGPT:人类反馈优化
- 六、GPT-4:多模态时代的开端
- 七、总结
前言
近年来,大语言模型(LLM, Large Language Model)成为人工智能领域的核心技术之一,其背后的生成式预训练模型(GPT, Generative Pre-trained Transformer)更是推动了自然语言处理(NLP)的飞速发展。从GPT-1到GPT-4,这一系列模型不断突破技术边界,本文将详细介绍GPT的演进历程及其核心原理。
一、大语言模型进化树
语言模型的发展是人工智能技术进步的重要缩影,其背后依赖于Transformer架构的持续创新。从2018年Transformer模型的提出到2023年覆盖多模态任务的GPT-4问世,大语言模型在架构、训练规模和应用领域上实现了巨大突破。我们可以从“语言模型进化树”图中清晰看到,语言模型的发展路径主要分为三大分支:Encoder-only、Encoder-Decoder、Decoder-only。
1.1 Encoder-only 模型
Encoder-only模型专注于自然语言理解(NLU)任务。它们通过编码输入序列来提取深层次的语义信息,适合分类、问答和实体识别等需要深度理解文本的任务。
代表模型:
BERT(2019):双向编码语言模型,彻底改变了自然语言理解的效果。
RoBERTa 和 ALBERT:BERT的优化版本,提升了训练效率和任务性能。
ELECTRA 和 DeBERTa:进一步改进BERT的训练策略,提高了下游任务表现。
特点:
双向编码:同时利用上下文信息,显著提升了文本理解能力。
局限性:无法用于自然语言生成任务,因为其架构缺乏解码器部分。
1.2 Encoder-Decoder 模型
Encoder-Decoder模型在理解输入文本(Encoder)和生成输出文本(Decoder)之间建立桥梁,能够同时处理语言理解(NLU)和语言生成(NLG)任务,适合翻译、摘要和对话生成等复杂任务。
代表模型:
T5(2020):将所有任务统一为“文本到文本”的形式,极大提升了多任务学习能力。
BART 和 mT5:基于T5的增强版本,支持多语言任务处理。
Switch Transformer 和 FLAN-T5:通过大规模训练进一步提升了模型的生成能力。
特点:
双向-单向结合:编码器负责双向理解,解码器负责单向生成。
多任务适应性强:尤其适用于复杂的跨语言、跨领域任务。
1.3 Decoder-only 模型
Decoder-only模型专注于自然语言生成(NLG)任务,是生成式预训练模型(GPT)系列的核心架构。它们仅使用单向解码器,通过前文预测后文,逐字生成连贯文本,具备强大的生成能力。
代表模型:
GPT-1(2018):首次提出生成式预训练概念,开创了自然语言生成的新纪元。
GPT-2(2019):引入Zero-shot学习,极大提升了任务迁移能力。
GPT-3(2020):提出Few-shot学习,凭借1750亿参数实现了惊人的任务泛化能力。
ChatGPT(2022):结合人类反馈强化学习(RLHF),优化了对话生成质量。
GPT-4(2023):支持文本和图像输入,迈向多模态时代。
特点:
单向生成:只关注前文信息,确保生成结果连贯自然。
极强的生成能力:适合创作、对话、自动写作等任务。
局限性:对上下文的深层理解较弱,需要进一步改进。
1.4 GPT系列模型的独特定位
在语言模型进化树中,Decoder-only分支承载了生成任务的绝大部分重任。GPT系列模型作为Decoder-only架构的代表,通过每一代的改进,不断推动自然语言生成技术的边界:
从GPT-1到GPT-3:实现了从预训练+微调到Few-shot情境学习的飞跃。
从ChatGPT到GPT-4:引入RLHF和多模态能力,提升了模型的交互性和多样性。
Decoder-only架构的单向生成机制使其在生成任务中占据核心地位,而GPT系列的快速演化,也让Decoder-only模型成为推动语言模型发展的重要引擎。
二、GPT-1:生成式预训练的开端
2.1 背景与创新
2018年6月,OpenAI在论文《Improving Language Understanding by Generative Pre-Training》中提出了GPT-1(Generative Pre-trained Transformer)。这是第一个基于生成式预训练的语言模型。
GPT-1采用了无监督预训练(Pre-training)+有监督微调(Fine-tuning)的两阶段方法,旨在通过无监督学习从海量文本中提取语言特征,再利用有监督学习微调模型以适应下游任务。
2.2 技术特点
(1)模型架构
GPT-1的架构基于经典的Transformer模型,但仅使用了解码器部分,并进行了关键性的改动:
移除Encoder-Decoder Attention模块:保留解码器中的自注意力机制,使模型专注于从前文生成后续内容。
单向生成语言模型:通过掩码多头自注意力机制,确保每个位置的预测只依赖于前文,而不泄露未来的信息。
(2)单向语言模型
GPT-1使用了一种单向生成的策略,这种策略让模型在生成每个单词时,只能依赖它前面出现的内容,而看不到后面尚未生成的内容。我们可以把这个过程比作“边写作边猜故事”的游戏。
举个例子:假设你正在写一个句子,比如“今天我吃了一碗牛肉面”。
当模型生成“牛肉面”之后的内容时,它只能看到“今天我吃了一碗牛肉面”,却完全不知道后面将写什么,因为在真实世界里,未来的事情(句子后续部分)还没发生。
换句话说,模型在预测每个单词时都像戴着“后视镜眼罩”,只能回头看自己已经生成的部分,而不能“偷看”接下来的内容。这种单向生成方式,保证了模型生成内容的连贯性和逻辑一致性,也让它能够模拟真实的语言创作过程。
(3)两阶段训练
GPT-1的训练分为两个主要阶段:无监督预训练和有监督微调,其核心思想和具体实现如下:
①无监督预训练
在这一阶段,GPT-1在海量未标注的文本数据上进行训练。目标是让模型通过上下文预测下一个单词,学习语言的基本特征和结构。整个过程类似于让模型在阅读海量的书籍中掌握语法、词义和句子结构,从而构建一个强大的生成式语言模型。
②有监督微调
经过预训练后,模型会针对具体的下游任务(如文本分类、翻译、多选题等)进行有监督的微调。在这一阶段,模型会根据标注的任务数据调整其参数,以适配特定的任务需求。
结合上图可以更清晰地理解这一过程:
输入表示:不同任务的数据被预处理成特定的格式(如分类任务、相似性任务、多选任务等),包括起始标记(Start)、上下文文本(Context)、假设文本(Hypothesis)或答案选项(Answer)。
Transformer处理:无论任务类型如何,输入都会被送入基于Transformer的核心网络,进行深度特征提取。
任务输出:
分类任务:通过线性层预测类别标签。
相似性任务:对两个文本的编码结果进行比较。
多选任务:逐一对多个选项进行评分,选择得分最高的选项。
这种分离方法的优势
灵活性:预训练的语言模型可以迁移到多个不同的任务中,而无需从零开始训练。
高效性:无监督预训练在大规模通用数据上完成后,微调仅需要较少的标注数据即可实现优秀的任务性能。
2.3 模型特点
(1)关键参数
参数 | 取值 |
---|---|
Transformer 层数 | 12 |
特征维度 | 768 |
Transformer head 数 | 12 |
总参数量 | 1.17 亿 |
(2)优缺点
优点:
在9个任务中达到SOTA表现。
架构简单,易于并行化。
缺点:
模型单向,语言理解能力有限。
需针对不同任务单独微调。
三、GPT-2:Zero-shot
3.1 背景与核心思想
2019年2月,OpenAI推出了GPT-2,并发表了论文《Language Models are Unsupervised Multitask Learners》。GPT-2作为GPT系列的第二代模型,提出了“多任务迁移学习”的理念,其核心创新是Zero-shot学习,即无需为特定任务准备标注数据,模型可以直接利用预训练的知识完成各种任务。
GPT-2的思想可以用一句话概括:“大力出奇迹” 。通过大规模的数据和更深的模型结构,GPT-2在生成式任务上实现了里程碑式的突破。
3.2 技术特点
(1)模型架构
GPT-2的模型架构相较于GPT-1进行了微小但关键的改动,这些改动提升了模型的训练稳定性和生成效果。
以下是图中提到的优化点:
①Layer Normalization(LN)调整:
Layer Normalization的位置变化:在GPT-2中,LN层被放置在Self-Attention层和Feed Forward层的前面,而不是像GPT-1那样放在后面。
目的:随着模型层数的增加,梯度消失和梯度爆炸的风险也随之增加。通过调整LN的位置,可以减少训练中的不稳定性,使梯度传播更加稳定。
②新增Layer Normalization层:
在每个Transformer Block的最后增加了一个额外的LN层,这进一步提高了模型的稳定性。
输入序列长度扩展:
(2)模型特点
Zero-shot学习:无需特定任务的标注数据,直接通过预训练知识完成任务。Zero-shot学习使模型具备更强的任务泛化能力,适用于数据稀缺的场景。
大规模训练数据:从5GB扩展至40GB,模型参数从1.17亿增加到15亿。
性能提升:通过扩大训练窗口、增大批量尺寸和层归一化优化生成效果。
训练参数:batch_size 从 64 增加到 512,上文窗口大小从 512 增加到 1024。
四、GPT-3:Few-shot
4.1 核心观点
2020年5月,OpenAI发布GPT-3并提出Few-shot学习思想。相比GPT-2的Zero-shot,Few-shot通过少量样本提升模型在下游任务中的准确性。
4.2 技术特点
(1)模型架构
实际上GPT-3不是一个单一的模型,而是一个模型系列。系列中的每个模型都有不同数量的可训练参数。下表显示了每个模型、体系结构及其对应的参数:
在模型结构上,GPT-3 延续使用 GPT 模型结构。最大版本GPT-3 175B 、96层的多头Transformer、Head size为96、词向量维度为12288、文本长度大小为2048。
GPT-3延续了GPT系列的经典架构,但参数规模和数据规模实现了显著扩展,是当时规模最大的语言模型。
(2)训练核心思想
GPT-3的训练过程延续了GPT-2的无监督预训练方法,但在适应下游任务的策略上实现了重大创新。
其核心思想是情境学习(In-context Learning),包括以下三种场景:
Zero-shot:无需提供示例,直接通过任务指令完成预测。
One-shot:提供一个任务示例后完成预测。
Few-shot:提供少量示例后完成预测。
In-context Learning 的优势
相比于传统的Fine-tuning方法,In-context Learning具有以下显著优势:
无需额外训练:无需更新模型参数,直接基于已有预训练模型操作。
灵活性强:可以快速适应多个任务,无需为每个任务单独微调模型。
低数据依赖:在Few-shot场景下,只需极少量示例(10-100个)即可完成复杂任务,显著降低对标注数据的需求。
例如,以下是一个Few-shot学习的应用案例:
任务指令:请将以下句子从英语翻译成法语。
输入示例:
英语:I enjoy traveling. 法语:J'aime voyager.
英语:This book is interesting. 法语:Ce livre est intéressant.
待翻译句子:英语:This is a great achievement。
模型输出:法语:C’est un grand accomplissement。
(3)模型特点
GPT-3的特点主要体现在数据量、参数规模以及生成能力上的显著提升:
数据规模:
GPT-3训练所用的数据量从GPT-2的40GB扩展到570GB。
数据覆盖范围更广,包括海量的互联网文本、百科知识和技术文档。
参数规模:
最大版本GPT-3拥有1750亿参数,比GPT-2的15亿参数扩大了100倍。
生成能力:
更大的模型参数和更丰富的数据赋予了GPT-3更强的语言生成能力。它可以生成逻辑连贯、上下文一致的文本,甚至达到接近人类书写水平。
4.3 实验验证
通过大量实验,GPT-3验证了情境学习的效果:
Few-shot表现最佳:在提供少量示例的情况下,GPT-3能够完成高复杂度的任务。
One-shot次之:提供一个示例后也能取得良好表现。
Zero-shot效果最差:尽管无需示例,但任务适应性略显不足。
五、ChatGPT:人类反馈优化
5.1 背景与原理
原始的GPT-3尽管具备强大的生成能力,但其输出质量存在不一致性,尤其是在用户对话中,有时会出现不符合预期或无关紧要的内容。这种能力的“不一致性”使其在需要精准交互的场景中表现不足。
为了解决这一问题,ChatGPT基于GPT-3,结合了人类反馈强化学习(Reinforcement Learning from Human Feedback, RLHF)技术,通过人类指导进一步优化模型,使其生成内容更加贴合人类需求。
ChatGPT通过人类反馈数据,优化了对话生成质量,显著提升了与用户交互的能力和体验。这一过程主要依赖于RLHF技术,通过强化学习的迭代训练使模型逐步改善输出,最终形成了一种更加智能化和人性化的对话系统。
5.2 强化学习步骤
ChatGPT的训练过程基于RLHF技术,主要包括以下三大步骤:
(1)监督微调(SFT):
利用标注的对话数据对预训练模型进行初步微调。
标注者提供理想的输入与输出对,帮助模型学习生成更加符合人类期望的答案。
(2)奖励模型训练(Reward Model, RM):
使用标注者对模型生成的多组回答进行评分,训练一个奖励模型,用于衡量回答的优劣。
奖励模型为后续强化学习提供评价依据。
(3)强化学习优化(Proximal Policy Optimization, PPO):
基于奖励模型提供的反馈,使用PPO算法优化模型的策略。
通过多次迭代,逐步提升模型生成内容的质量,使其输出更加符合用户需求。
这一流程结合了人类的主观评价和强化学习的技术优势,确保模型的输出在连续对话和复杂任务中表现更加出色。
监督微调(SFT):使用标注数据调整模型。
奖励模型训练(RM):标注者对模型输出进行排序,训练奖励模型。
强化学习优化(PPO算法):利用奖励模型反馈进一步优化模型策略。
5.3 结果与意义
(1)技术成果
ChatGPT通过RLHF技术显著提升了生成质量:
对话流畅性:生成的内容更加自然、连贯,逻辑清晰。
需求理解能力:更准确地理解用户指令,适应多轮对话的上下文。
减少不当输出:有效过滤不适当内容,使生成结果更友好安全。
(2)爆火现象
2022年底,ChatGPT发布后迅速爆火,成为全球瞩目的AI产品:
用户数量激增:上线仅5天内突破100万用户,创下AI产品增长纪录。
多样化应用:用户将其用于生成文案、代码撰写、任务辅助等,展现了强大的实用性。
社会热议:ChatGPT的能力在震撼用户的同时,引发了关于AI伦理、教育和工作未来的广泛讨论。
(3)行业影响
ChatGPT的成功不仅展示了OpenAI的技术实力,还为AI商业化提供了新方向:
成为AI SaaS领域的明星产品,加速生成式AI技术普及。
激发了全球科技公司对AI对话系统的研发热潮,进一步推动技术生态发展。
六、GPT-4:多模态时代的开端
2023年3月,OpenAI发布了GPT-4,这是首个支持多模态输入的GPT模型,能够同时处理文本和图像输入,显著扩展了任务范围。例如,用户可以上传图像,GPT-4不仅能识别其中的内容,还能结合文本进行回答或分析。
除了多模态功能,GPT-4还支持更长的上下文窗口(高达32,768 tokens),在复杂任务的逻辑推理和多语言处理上表现出色。其强大的适应性让GPT-4广泛应用于教育、医疗、科研和内容创作等领域,成为生成式AI发展的重要里程碑。
七、总结
从GPT-1到GPT-4,生成式预训练模型(GPT系列)不断推动自然语言处理的技术进步,每一代模型都带来了独特的创新与突破:
GPT-1:生成式预训练的开端
引入了无监督预训练与有监督微调相结合的两阶段训练方法,奠定了生成式语言模型的理论基础。
GPT-2:大力出奇迹
使用更大的模型和更多的训练数据,提出了Zero-shot学习,使模型无需任务特定数据即可完成任务,同时对模型架构进行了微小但关键的优化。
GPT-3:Few-shot学习的开创
提出了Few-shot学习,通过少量样本让模型更高效地适应下游任务,显著提升了任务泛化能力。凭借1750亿参数,GPT-3成为当时最大的语言模型。
ChatGPT:引入人类反馈强化学习(RLHF)
结合RLHF技术,通过人类反馈优化模型生成质量,显著提升了对话的流畅性、准确性和安全性。ChatGPT的发布在2022年底迅速爆火,成为生成式AI的标杆产品。
GPT-4:多模态的智能进化
2023年3月发布的GPT-4支持多模态输入,能够同时处理文本和图像,拓展了AI在教育、医疗、科研和创意等领域的应用。其更大的上下文窗口和更强的生成能力,进一步推动了人工智能的发展。
标签:shot,训练,模型,生成,任务,详细,GPT,原理,ChatGPT From: https://blog.csdn.net/Kiradzy/article/details/144857130