首页 > 编程语言 >大模型 RLHF 实战!【OpenAI独家绝技RLHF!RLHF的替代算法DPO!Claude 暗黑科技 RAIHF!】

大模型 RLHF 实战!【OpenAI独家绝技RLHF!RLHF的替代算法DPO!Claude 暗黑科技 RAIHF!】

时间:2023-12-28 14:04:02浏览次数:18  
标签:函数 训练 RAIHF Claude 模型 RLHF 奖励 DPO




大模型 RLHF 实战

  • 大模型 RLHF 实战
  • RLHF:OpenAI独家绝技
  • RLHF 的问题
  • DPO 直接偏好优化算法:RLHF的替代算法
  • 公式 1 - 4:KL散度下奖励的最大化目标
  • 使用 DPO 微调 Llama 2
  • RAIHF



 


大模型 RLHF 实战

大模型 RLHF 实战!【OpenAI独家绝技RLHF!RLHF的替代算法DPO!Claude 暗黑科技 RAIHF!】_算法

RLHF(基于人类反馈的强化学习)分为 3 个阶段:

  • 预训练:为了生成内容,需要一个生成式的预训练语言模型(如GPT);还会引入微调,帮助模型更好理解提示(Prompts)
  • 训练奖励函数:通过对模型生成的结果,人工标注反馈,构造训练集,用于训练奖励函数,模拟人的奖励偏好
  • 强化学习:定义策略(第一阶段语言模型输入输出)、动作空间(词表token的排列组合)、奖励函数(第二阶段训练的);对于同一个问题,会同时送入原始模型、训练模型,用奖励函数对俩者评分,分数差值用于训练策略函数。

安利下面的工具,支持主流模型(ChatGLM系列、Baichuan系列、LLaMA系列、Qwen系列、Bloom):

同时支持训练方法,包括预训练(pre-training), 有监督微调(sft)和 RLHF,微调方式均为 LoRA 或者 QLoRA、全参数。

按照ta的教程一步步操作即可。

RLHF:OpenAI独家绝技

正在更新…

RLHF 的问题

RLHF 的替代有 2 种:DPO、RAIHF。

  • RLHF:从人类反馈中学习的强化学习
  • DPO:直接偏好优化算法,专门替代传统的基于奖励的 RL 方法。
    RLHF 问题:策略和价值函数迭代步骤相当复杂,经验数据采集计算成本高。
    改进:DPO 是简化了 RLHF 步骤(不需要对奖励函数进行复杂的工程设计),但同时效果不比 RLHF 差。
  • RAIHF:RLHF不再需要人类,AI 实现标注自循环,AI标注效果一样好。
    RLHF 问题
  • 成本高昂(收集高质量人工,反馈需要大量的时间和金钱资源),RLHF通常使用数以万计的人类偏好标签
  • 样本效率低(模型需要大量的人类反馈来学习和改进其行为)
  • 人类偏见(模型可能会学习并放大人类评估者的偏见)
  • 一致性问题(不同人评估给出不一致的反馈,导致模型训练中的不确定性)
  • 可扩展性问题(对于非常复杂的任务或环境,难以获得足够的人类反馈来训练模型)
     

改进:RAIHF 是通过 AI 排序,而非人工排序数据集,训练出来的偏好模型PM的指引下迭代模型策略。

DPO 直接偏好优化算法:RLHF的替代算法

论文地址:https://arxiv.org/abs/2305.18290

作者在训练 DPO 模型时省略了奖励模型训练的步骤,而是通过设计一种包含正负样本对比的损失函数,在训练过程中得到一个满足人类偏好的模型。

  • 你的语言模型其实是一个奖励模型
  • 不训练奖励模型,语言模型直接做偏好优化
  • 学习你的偏好,满足你的偏好

这种方法在文本总结和单轮对话任务上提高了生成结果的质量。

正样本和负样本的对比,使得模型能够更好地学习到人类偏好的特征,从而提升了生成的质量。

RLHF、DPO 差异:

大模型 RLHF 实战!【OpenAI独家绝技RLHF!RLHF的替代算法DPO!Claude 暗黑科技 RAIHF!】_算法_02


左右两边最大的区别就是,有没有reward model (RM)。

DPO 是将配给 RW 的训练融合在 final LM 里面,LLM本身即是RM。

公式 1 - 4:KL散度下奖励的最大化目标

大模型 RLHF 实战!【OpenAI独家绝技RLHF!RLHF的替代算法DPO!Claude 暗黑科技 RAIHF!】_语言模型_03

  • 人类偏好分布 大模型 RLHF 实战!【OpenAI独家绝技RLHF!RLHF的替代算法DPO!Claude 暗黑科技 RAIHF!】_强化学习_04
  • 模型会生成问答对,会呈现给人类标注者,并让他们给出一个答案偏好 大模型 RLHF 实战!【OpenAI独家绝技RLHF!RLHF的替代算法DPO!Claude 暗黑科技 RAIHF!】_语言模型_05
  • 大模型 RLHF 实战!【OpenAI独家绝技RLHF!RLHF的替代算法DPO!Claude 暗黑科技 RAIHF!】_语言模型_06:更好的答案
  • 假设这些偏好是由某个潜在的奖励模型 大模型 RLHF 实战!【OpenAI独家绝技RLHF!RLHF的替代算法DPO!Claude 暗黑科技 RAIHF!】_算法_07

建立奖励模型,对其参数做最大似然估计,从而将问题转换为二分类问题,同时使用负对数做似然损失:

  • 大模型 RLHF 实战!【OpenAI独家绝技RLHF!RLHF的替代算法DPO!Claude 暗黑科技 RAIHF!】_算法_08

目标函数(使用学到的奖励函数来为语言模型提供反馈):

  • 大模型 RLHF 实战!【OpenAI独家绝技RLHF!RLHF的替代算法DPO!Claude 暗黑科技 RAIHF!】_语言模型_09

推导上式,得到:

  • 大模型 RLHF 实战!【OpenAI独家绝技RLHF!RLHF的替代算法DPO!Claude 暗黑科技 RAIHF!】_优化算法_10
     

上述就是论文 1 - 4 的推导结果。

这个公式是从一个最大化目标函数出发来推导的,其中包含了两个部分:模型预期奖励的最大化以及KL散度的一个约束项。

KL散度是衡量两个概率分布之间差异的一个指标,在这里用于限制学习到的策略 大模型 RLHF 实战!【OpenAI独家绝技RLHF!RLHF的替代算法DPO!Claude 暗黑科技 RAIHF!】_强化学习_11 与参考策略 大模型 RLHF 实战!【OpenAI独家绝技RLHF!RLHF的替代算法DPO!Claude 暗黑科技 RAIHF!】_优化算法_12

目标函数可以分解为两部分:

  1. 大模型 RLHF 实战!【OpenAI独家绝技RLHF!RLHF的替代算法DPO!Claude 暗黑科技 RAIHF!】_强化学习_13
  • 这部分表示模型试图最大化预期奖励,也就是在给定输入 大模型 RLHF 实战!【OpenAI独家绝技RLHF!RLHF的替代算法DPO!Claude 暗黑科技 RAIHF!】_语言模型_14 的情况下,通过策略 大模型 RLHF 实战!【OpenAI独家绝技RLHF!RLHF的替代算法DPO!Claude 暗黑科技 RAIHF!】_算法_15 生成答案 大模型 RLHF 实战!【OpenAI独家绝技RLHF!RLHF的替代算法DPO!Claude 暗黑科技 RAIHF!】_优化算法_16 来获得尽可能高的奖励 大模型 RLHF 实战!【OpenAI独家绝技RLHF!RLHF的替代算法DPO!Claude 暗黑科技 RAIHF!】_强化学习_17
  1. 大模型 RLHF 实战!【OpenAI独家绝技RLHF!RLHF的替代算法DPO!Claude 暗黑科技 RAIHF!】_优化算法_18
  • 这部分表示有一个正则化项,通过KL散度来限制策略 大模型 RLHF 实战!【OpenAI独家绝技RLHF!RLHF的替代算法DPO!Claude 暗黑科技 RAIHF!】_算法_15 不能偏离参考策略 大模型 RLHF 实战!【OpenAI独家绝技RLHF!RLHF的替代算法DPO!Claude 暗黑科技 RAIHF!】_强化学习_20 太远。大模型 RLHF 实战!【OpenAI独家绝技RLHF!RLHF的替代算法DPO!Claude 暗黑科技 RAIHF!】_优化算法_21

目标函数最大,而公式 3 是相减,就意味着 大模型 RLHF 实战!【OpenAI独家绝技RLHF!RLHF的替代算法DPO!Claude 暗黑科技 RAIHF!】_强化学习_22

而要从这个目标函数推导出策略 大模型 RLHF 实战!【OpenAI独家绝技RLHF!RLHF的替代算法DPO!Claude 暗黑科技 RAIHF!】_优化算法_23

在这种情况下,想要的是一个新的策略 大模型 RLHF 实战!【OpenAI独家绝技RLHF!RLHF的替代算法DPO!Claude 暗黑科技 RAIHF!】_优化算法_23,不仅能最大化奖励,还要满足对参考策略 大模型 RLHF 实战!【OpenAI独家绝技RLHF!RLHF的替代算法DPO!Claude 暗黑科技 RAIHF!】_语言模型_25

为了解这个带约束的优化问题,可以构建一个拉格朗日函数:

大模型 RLHF 实战!【OpenAI独家绝技RLHF!RLHF的替代算法DPO!Claude 暗黑科技 RAIHF!】_算法_26

对这个函数求解最优策略 大模型 RLHF 实战!【OpenAI独家绝技RLHF!RLHF的替代算法DPO!Claude 暗黑科技 RAIHF!】_强化学习_11

大模型 RLHF 实战!【OpenAI独家绝技RLHF!RLHF的替代算法DPO!Claude 暗黑科技 RAIHF!】_语言模型_28

这里的 大模型 RLHF 实战!【OpenAI独家绝技RLHF!RLHF的替代算法DPO!Claude 暗黑科技 RAIHF!】_语言模型_29 是规范化因子(相当于做了归一化,取值 0-1),确保 大模型 RLHF 实战!【OpenAI独家绝技RLHF!RLHF的替代算法DPO!Claude 暗黑科技 RAIHF!】_优化算法_23

这个推导使用了变分原理,其中 大模型 RLHF 实战!【OpenAI独家绝技RLHF!RLHF的替代算法DPO!Claude 暗黑科技 RAIHF!】_优化算法_23大模型 RLHF 实战!【OpenAI独家绝技RLHF!RLHF的替代算法DPO!Claude 暗黑科技 RAIHF!】_强化学习_32 的一个特殊形式,它使得拉格朗日函数 大模型 RLHF 实战!【OpenAI独家绝技RLHF!RLHF的替代算法DPO!Claude 暗黑科技 RAIHF!】_语言模型_33

意思是,可以通过一个加权的参考策略来构造一个新的策略,该策略会偏向于高奖励的行为,同时保持与参考策略的相似性。

权重由奖励函数和温度参数 大模型 RLHF 实战!【OpenAI独家绝技RLHF!RLHF的替代算法DPO!Claude 暗黑科技 RAIHF!】_强化学习_34

正在更新…

使用 DPO 微调 Llama 2

请猛击:https://github.com/huggingface/blog/blob/main/zh/dpo-trl.md

RAIHF


标签:函数,训练,RAIHF,Claude,模型,RLHF,奖励,DPO
From: https://blog.51cto.com/u_13937572/9014077

相关文章

  • RLHF · PbRL | 选择 near on-policy query,加速 policy learning 收敛速度
    论文题目:Query-PolicyMisalignmentinPreference-BasedReinforcementLearning,ICML2023Workshop“TheManyFacetsofPreference-BasedLearning”。(其实不太知道workshop是什么概念…)pdf版本:https://arxiv.org/abs/2305.17400html版本:https://ar5iv.labs.arxiv.or......
  • RLHF · PBRL | B-Pref:生成多样非理性 preference,建立 PBRL benchmark
    论文题目:B-Pref:BenchmarkingPreference-BasedReinforcementLearning,2021NeurIPSTrackDatasetsandBenchmarks,778。openreview:https://openreview.net/forum?id=ps95-mkHF_pdf版本:https://arxiv.org/pdf/2111.03026.pdfhtml版本:https://ar5iv.labs.arxiv.org/ht......
  • AI创作工具:Claude2注册保姆级教程
    最近软件打算多接入几个AI写作平台,包括讯飞星火,百度文心,Claude2,这样就能给用户提供更多的写作选择经过半天的调研,讯飞星火,百度文心一言,接入都比较简单,毕竟是国内的。在调研Claude2的时候,发现自己之前注册的账号被封了。于是打算重新注册一个账号,结果犯了难。下面开始正式教程......
  • 使用 PPO 算法进行 RLHF 的 N 步实现细节
    当下,RLHF/ChatGPT已经变成了一个非常流行的话题。我们正在致力于更多有关RLHF的研究,这篇博客尝试复现OpenAI在2019年开源的原始RLHF代码库,其仓库位置位于openai/lm-human-preferences。尽管它具有“tensorflow-1.x”的特性,但OpenAI的原始代码库评估和基准测试非常完......
  • RLHF · PBRL | 发现部分 D4RL tasks 不适合做 offline reward learning 的 benchmark
    论文题目:BenchmarksandAlgorithmsforOfflinePreference-BasedRewardLearning,TMLR20230103发表。openreview:https://openreview.net/forum?id=TGuXXlbKsnpdf版本:https://arxiv.org/pdf/2301.01392.pdfhtml版本:https://ar5iv.labs.arxiv.org/html/2301.01392目......
  • RLHF · PBRL | SURF:使用半监督学习,对 labeled segment pair 进行数据增强
    论文名称:SURF:Semi-supervisedrewardlearningwithdataaugmentationforfeedback-efficientpreference-basedreinforcementlearning,ICLR2022,分数666接收,又是PieterAbbeel组的(恼)。(最近的readinglist里全是他们组的文章,已经读过了PEBBLE和RUNE并撰写阅读......
  • RLHF · PBRL | PEBBLE:通过 human preference 学习 reward model
    论文题目:PEBBLE:Feedback-EfficientInteractiveReinforcementLearningviaRelabelingExperienceandUnsupervisedPre-training,貌似是ICML2021的文章。本博客为论文阅读笔记,【不能代替】阅读原文的工作量。原文写的也很好,是AI顶会的风格,相对容易读懂。阅读材料:p......
  • 基于LoRA的RLHF
    参考Github 开源模型LLM-Tuning一、简介(1)RLHF(基于人类反馈的强化学习) 分为三步:SFT(SupervisedFine-Tuning):有监督的微调,使用正常的instructionfollowing或者对话的样本,来训练模型的基础对话、听从prompt的能力;RM(RewardModeling):基于人类的偏好和标注,来训......
  • 大模型rlhf 相关博客
    想学习第一篇博客:https://huggingface.co/blog/zh/rlhfRLHF技术分解RLHF是一项涉及多个模型和不同训练阶段的复杂概念,这里我们按三个步骤分解:预训练一个语言模型(LM);聚合问答数据并训练一个奖励模型(RewardModel,RM);用强化学习(RL)方式微调LM。细化:1......
  • GPT大语言模型引爆强化学习与语言生成模型的热潮、带你了解RLHF。
    GPT大语言模型引爆强化学习与语言生成模型的热潮、带你了解RLHF。随着ChatGPT的爆火,强化学习(ReinforcementLearning)和语言生成模型(LanguageModel)的结合开始变得越来越受人关注。有关ChatGPT的视频讲解可以参考这里。该项目的详细介绍可以参考这里。在这个项目中,我们将......