首页 > 其他分享 >Offline Regularised Reinforcement Learning for Large Language Models Alignment

Offline Regularised Reinforcement Learning for Large Language Models Alignment

时间:2024-12-08 15:30:18浏览次数:5  
标签:提示 LLM Language Models Regularised 响应 偏好 DRO 优化

本文是LLM系列文章,针对《Offline Regularised Reinforcement Learning for Large Language Models Alignment》的翻译。

用于大型语言模型对齐的离线正则化强化学习

摘要

无论是通过人类反馈的强化学习还是直接偏好优化,大语言模型(LLM)对齐的主要框架都是从偏好数据中学习。这涉及构建数据集,其中每个元素都是由提示、两个独立响应(提示的完成)以及两个独立响应之间的人类偏好组成的四元组,从而产生首选和不首选的响应。此类数据通常稀缺且收集成本昂贵。另一方面,每个元素都是由提示、响应和人类反馈组成的三元组的单轨迹数据集自然更加丰富。例如,此类数据集的规范元素是LLM对用户提示的响应,然后是用户的反馈,例如赞成/反对。因此,在这项工作中,我们提出 DRO(直接奖励优化)作为不需要成对偏好的框架和相关算法。 DRO 使用简单的均方目标,可以通过多种方式实现。我们使用 T5 编码器-解码器语言模型根据经验验证了我们的发现,并展示了 DRO 在 Kahneman-Tversky Optimization (KTO) 等选定基线上的性能。因此,我们确认 DRO 是一种简单且具有实证说服力的单轨迹政策优化方法。

1 引言

2 背景

3 直接

标签:提示,LLM,Language,Models,Regularised,响应,偏好,DRO,优化
From: https://blog.csdn.net/c_cpp_csharp/article/details/144244286

相关文章