首页 > 其他分享 >OpenAI的秘密武器、ChatGPT背后功臣RLHF,被开源了

OpenAI的秘密武器、ChatGPT背后功臣RLHF,被开源了

时间:2024-04-09 18:01:28浏览次数:27  
标签:训练 SFT RLHF token OpenAI RM ChatGPT

OpenAI的秘密武器、ChatGPT背后功臣RLHF,被开源了。

来自Hugging Face、加拿大蒙特利尔Mila研究所、网易伏羲AI Lab的研究人员从零开始复现了OpenAI的RLHF pipeline,罗列了25个关键实施细节

最终成功展示了随着模型大小的增加,响应质量显著提升的scaling行为,其中2.8B、6.9B的Pythia模型在性能上超过了OpenAI发布的1.3B checkpoint。

没有写在论文中,但被作者在推文中po出来的,还有一个初步的Pythia 1.4B实验,根据GPT-4的数据显示,这个1.4B模型非常接近OpenAI的1.3B性能(由于GPT4成本过高,只进行了一次评估)。

研究人员表示,他们的这一“配方”的独特之处在于对SFT、RM和PPO使用了单一的学习率,所以再重现他们的工作会变得更加简单。

作者已公开发布了训练好的模型checkpoint和代码。

其中秘密武器RLHF,开源界围绕着它做了不少工作,不过想要重现OpenAI的RLHF pipeline很是困难。

主要有这么几个原因:

  • RL和RLHF有许多微妙的实现细节,这些细节对训练稳定性有很大影响;
  • 对于指令遵循任务,如评估一个编码任务中生成的800行代码片段的质量,评估模型的表现不太行;
  • 模型需要长时间的训练和迭代。

考虑到以上原因,加之总结任务比一般的指令任务更容易评估,所以Hugging Face最新的这项工作选择退后一步,从OpenAI早期的RLHF工作(也就是上面第一篇论文的摘要任务)中,探寻OpenAI的RLHF的真面目。

25个细节深度复现

RLHF通常包括以下三个步骤。

步骤1:训练SFT(监督微调)策略

使用下一个词预测损失对预训练的LLM进行微调,这些微调数据基于人类示范。

在这项复现工作中,人类示范数据与OpenAI的工作保持一致,选自过滤后的Reddit TL;DR(Too Long; Didn’t Read)数据集(当时OpenAI还Open了他们的人类反馈数据集)。

步骤2:收集偏好对并训练RM(奖励模型)

使用SFT策略等采样不同完成序列,让人类标注员指出他们较偏好的序列。

基于这些偏好数据,通过在SFT策略上添加一个随机初始化的线性头来初始化RM,并优化交叉熵损失函数进行训练,目标是预测人类标注员更倾向于接受哪种完成序列。

步骤3:针对RM训练RL(强化学习)策略

从SFT策略初始化,RL策略根据RM对采样的完成序列给出奖励分数,同时加上一个KL惩罚项以防止过度偏离SFT策略。然后使用PPO算法最大化这个RLHF目标函数。

研究人员针从数据集到SFT、RM、OPP,共介绍了25个复现细节,深入分析了TL;DR数据集的规格、分词过程和分词长度分布。同时,详细描述了SFT和RM组件的训练设置、实施细节和结果。

感兴趣的家人们可以划到最后查看论文,这里罗列了作者认为有趣的细节。

数据预处理阶段:

对于RLHF的提示查询,OpenAI在最后一段进行截断,而不是使用硬性的截断限制;同时确保“TL;DR:”之后没有多余的空格。

始终在reference completions前加上前导空格,在reference completions后添加`<|endoftext|>`,并使用单独的[PAD] token填充。

SFT和偏好数据集的tokenization length不同,因此在SFT和RM训练期间分别设置最大token长度时需要注意。

RM的验证集非常有趣,因为它包含更多独特的策略对进行比较,所以它有很多超出分布的数据。

SFT阶段:

SFT阶段没有太多的实现细节,只需要标准的下一个token预测损失就可以了。除了使用了不同的学习率之外,研究人员的设置几乎与原始设置相同。

损失下降,ROUGE分数在4个随机种子和3个模型checkpoint大小上都有所提高。

RM训练:

RM训练更有趣。例如,研究人员发现RM只在EOS token处提取奖励。此外,在检查奖励的logits时,除了EOS token外,几乎所有的logits都是负数。

结果非常不错,验证准确率提高了,RM几乎完美地转移到了偏好数据集验证集中的CNN/DM子集上。

他们计算了SFT demonstration的平均奖励——标量值看起来有些随意;还计算了OpenAI偏好数据集中每个批号和置信度的验证准确率。

值得注意的是,不同的批次/置信度可能会有截然不同的准确率。

研究人员也测量了RM与GPT3.5和RM的一致性率(agreement rate),并发现一致性率有所提高,但在6.9B级别时有所减弱。

并绘制了AnthropicAI所做的RM校准,发现RM通常校准不足。

研究人员将验证准确率与DPO的隐式RM进行了比较,发现出于某种原因DPO的验证准确率较低。

几个不同点:

  • RM训练只在EOS token处应用损失,而DPO在每个完成token处应用损失。
  • DPO还有一个可能影响训练的$beta参数,RM则没有。
  • 研究员Michael Noukhovitch提出了个有说服力的观点:DPO的目标可能更难优化,因为你需要使你的logprobs与基本模型有足够大的不同才能更改奖励,而RM可以学习一个线性头,可以更容易/更快地改变奖励的值。

PPO训练:

有趣的是,学习值函数的行为与RM截然不同。例如,值函数logits通常更为正,因为在每个时间步长,它都试图对最终分数进行建模。

PPO也使用了EOS技巧。在PPO训练中,研究人员通常采样固定数量的token,比如48个。如果完成不以EOS token结束怎么办?前面已经提到了,非EOS token的logits几乎总是负的(并且可能无效)。

EOS技巧基本上用恒定的-1奖励取代了不以EOS token结尾的完成的奖励。有几个目的:

研究人员还尝试了PPO的奖励白化处理,并发现这样使得与参考摘要的胜率略有降低,以及完成token的长度略微缩短。

长度在这里是一个混杂因素,所以研究人员引导了OpenAI进行的长度控制分析,通过将x轴设置为模型摘要长度与参考摘要长度之比的对数来执行。

当长度得到控制时,研究人员发现比较奖励白化的结果更具挑战性,但尽管如此,在每个摘要长度上,PPO模型几乎总是优于SFT模型。

PPO 的训练曲线如下所示。值得注意的是,几个1B型号的KL值爆炸了。从优化的角度来看,这并没有什么问题,因为RLHF奖励一直在上升,这些1B模型对应于“奖励黑客”/过度优化的模型。

为了更好地理解模型的行为,研究人员还可视化突出显示了经过微调的模型在生成文本时总会以一个EOS token结束。为了进一步探索这一点,原论文附录部分提供了更多类似的可视化效果。

PS:就在今天,Open AI同时也发布了GPT5的红队训练,估计和Sora将计划一起在今年开放。不过GPT5和Sora估计是优先给gpt4升级付费用户开放先的了,如果需要升级GPT的话可以参考使用虚拟卡的方式升级:WildCard | 一分钟注册,轻松订阅海外软件服务

论文链接:WildCard虚拟卡官网怎么一键开通GPTPlus_wildcard gpt-CSDN博客

标签:训练,SFT,RLHF,token,OpenAI,RM,ChatGPT
From: https://blog.csdn.net/casonchen/article/details/137561809

相关文章

  • 成像光谱遥感技术中的AI革命:ChatGPT在遥感领域中的应用
    遥感技术主要通过卫星和飞机从远处观察和测量我们的环境,是理解和监测地球物理、化学和生物系统的基石。ChatGPT是由OpenAI开发的最先进的语言模型,在理解和生成人类语言方面表现出了非凡的能力。重点介绍ChatGPT在遥感中的应用,人工智能在解释复杂数据、提供见解和帮助决策过程方面......
  • 需求分析有点难,ChatGPT来帮你
    简介在实际工作过程中,常常需要拿到产品的PRD文档或者原型图进行需求分析,为产品的功能设计和优化提供建议。而使用ChatGPT可以很好的帮助分析和整理用户需求。实践演练接下来,需要使用ChatGPT辅助我们完成需求分析的任务注意:为了方便展示,所有GPT的回复都将使用文本格式展示,以......
  • 校验ChatGPT 4真实性的三个经典问题:提供免费测试网站快速区分 GPT3.5 与 GPT4
    现在已经有很多ChatGPT的套壳网站,以下分享验明GPT-4真身的三个经典问题,帮助你快速区分套壳网站背后到底用的是GPT-3.5还是GPT-4。大家可以在这个网站测试:https://ai.hxkj.vip,免登录可以问三条,登录之后无限制。咱们使用免登录的额度测试就已经够用了测试问题1:Wha......
  • 文心一言 VS 讯飞星火 VS chatgpt (232)-- 算法导论17.1 3题
    三、假定我们对一个数据结构执行一个由n个操作组成的操作序列,当i严格为2的幂时第i个操作的代价为i,否则代价为1。使用聚合分析确定每个操作的摊还代价。文心一言:为了进行聚合分析并确定每个操作的摊还代价,我们需要理解操作序列的性质,特别是代价的变化规律。根据题目描......
  • 怎样用chatgpt写论文?AI写作论文分享!
    自从人工智能AI最近两年火爆以来,很多同学都在想想尝试利用其完成论文写作,正版的chatgpt账号在国内也不是那么好注册,网上也有各种ai网站,以及教程、命令,其实亲测后发现根本没什么用,也就是简单的文案写作还将就!虽然把论文完全交给AI写作是不现实的,但是一定要具备一定的参考价值才......
  • 让ChatGPT写分镜模板以及生成图片提示词模板
    你现在是一位知名的短视频导演,要拍摄一段1分钟左右的视频玄幻故事短片,介绍一个来自深海的远古文明,需要在开头的五秒钟抓住用户的兴趣点,请详细的撰写分镜脚本和旁白你现在是一位知名的短视频导演,要拍摄一段1分钟左右的视频玄幻故事短片,介绍一个女孩坚持谈恋爱就是谈恋爱......
  • 真的还有人不知道这几个好用的Chatgpt吗?
    Hhhhhh有点标题党了废话不多说,进入正题……今天是实习日志即将交稿的倒数第三天,看着50多篇的日志我是相当抗拒的……谁让自己先享受了呢,写吧!那老老实实的写吗?当然不,就算我再怎么编,也编不出那么多滴,于是主角登场——AI软件:这个——通义千问:老朋友了,好用的很,日常的大小问题我......
  • 驾驭数据的能力,如同使用ChatGPT一样,是现代职场人的必修课
    现代职场所比拼的除了聪明才智、过往经验之外,很多软性技能也尤为重要。现在已经不是像网络游戏开局拿着一根小木棍打天下的时代了,这将是一场武装到牙齿的较量,对于各类“装备”的驾驭能力有时候甚至可以决定胜负。ChatGPT是提升职场人工作效率的绝佳装备,相关的介绍已经很多,今天我......
  • chatgpt自动发送程序
    importpandasaspdimportpyautoguiimportpyperclipimporttimedefsend_message(message):#将消息复制到剪贴板pyperclip.copy(message)#模拟键盘按键来粘贴消息:先按下'ctrl',再按'v',最后释放这两个键pyautogui.hotkey('ctrl','v')......
  • Chatgpt掘金之旅—有爱AI商业实战篇|内容策展业务|(八)
    演示站点: https://ai.uaai.cn 对话模块官方论坛: www.jingyuai.com 京娱AI一、AI技术创业内容策展业务有哪些机会?人工智能(AI)技术作为当今科技创新的前沿领域,为创业者提供了广阔的机会和挑战。随着AI技术的快速发展和应用领域的不断拓展,未来AI技术方面会有哪些创业机......