首页 > 其他分享 >RLHF · PBRL | B-Pref:生成多样非理性 preference,建立 PBRL benchmark

RLHF · PBRL | B-Pref:生成多样非理性 preference,建立 PBRL benchmark

时间:2023-11-30 21:22:06浏览次数:33  
标签:PBRL Pref benchmark preference RL based reward



目录


0 abstract

Reinforcement learning (RL) requires access to a reward function that incentivizes the right behavior, but these are notoriously hard to specify for complex tasks. Preference-based RL provides an alternative: learning policies using a teacher's preferences without pre-defined rewards, thus overcoming concerns associated with reward engineering. However, it is difficult to quantify the progress in preference-based RL due to the lack of a commonly adopted benchmark. In this paper, we introduce B-Pref: a benchmark specially designed for preference-based RL. A key challenge with such a benchmark is providing the ability to evaluate candidate algorithms quickly, which makes relying on real human input for evaluation prohibitive. At the same time, simulating human input as giving perfect preferences for the ground truth reward function is unrealistic. B-Pref alleviates this by simulating teachers with a wide array of irrationalities, and proposes metrics not solely for performance but also for robustness to these potential irrationalities. We showcase the utility of B-Pref by using it to analyze algorithmic design choices, such as selecting informative queries, for state-of-the-art preference-based RL algorithms. We hope that B-Pref can serve as a common starting point to study preference-based RL more systematically. Source code is available at https://github.com/rll-research/B-Pref.

  • background:
    • 强化学习(RL)需要使用激励正确 action 的 reward function,但众所周知,reward function 很难为复杂任务指定。
    • 基于偏好的 RL(PBRL)提供了一种替代方案:在没有预定义奖励的情况下,使用 teacher preference 来学习政策,从而克服了与奖励工程相关的问题。然而,由于缺乏普遍采用的基准,很难量化 PBRL 的进展。
  • 工作:
    • 在本文中,我们介绍了 B-Pref,一个专门为 PBRL 设计的 benchmark。
    • 这种 benchmark 的一个关键挑战是,要对算法进行快速评估,所以,不能使用真实的人工输入,对 segment pairs 进行实时评估。同时,把 ground-truth reward function 拿来当作人类输入,这种完美 preference 也是不现实的。
    • B-Pref 模拟了具有广泛非理性(with a wide array of irrationalities)的 teacher,不仅提出了针对 performance 的指标,还提出了针对这些潜在非理性(irrationalities)的 robustness 指标。
  • result:
    • 我们展示了 B-Pref 的实用性,使用它来分析最先进的 PBRL 算法设计,例如在 selecting informative queries 方面的设计。希望 B-Pref 可以作为系统研究 PBRL 的起点。
    • 源代码位于 https://github.com/rll-research/b-pref
Refer to caption

3 benchmarks environments for PBRL

  • (section 3.2)建立了一个生成 preference 的 Stochastic preference model(随机偏好模型):

    • \[P[σ^i\succ σ^j~;~β,γ]=\frac{\exp\big(β\sum_{t=1}^Hγ^{H-t}r(s^i_t,a^i_t)\big)} {\exp\big(β\sum_{t=1}^Hγ^{H-t}r(s^i_t,a^i_t)\big) + \exp\big(β\sum_{t=1}^Hγ^{H-t}r(s^j_t,a^j_t)\big)} \]

    • 若 β → ∞,则会得到 非零即一的 非常坚定的 P。β → 1 正常。γ 是 discount factor。

  • 设计了几个 irrationalities:

    • Oracle(先知):β → ∞。
    • Myopic behavior(短视): discounted factor 变小。
    • Skipping queries(感觉不可比,跳过):若 segment 的 reward 之和太小,则认为两个 segment 都没有做到预期行为,一样差,跳过。
    • Equally preferable(同样好,(0.5,0.5) ):若两段 segment 的 reward 之和的差<一个阈值,则返回 (0.5,0.5)。
    • Making a mistake(犯错,01 翻转):概率为 ε。
  • (section 3.3)metrics 评价指标:

    • 评价指标: trained agent 的 episodic return,使用 ground-truth reward function。
    • 评价 feedback-efficiency:改变 queries budget(预算)。大概就是改变 queries 的个数?
    • 评价 robustness:使用以下六个 teacher: oracle(β→∞)、stoc 随机(β→1)、错误(ε→0.1)、;skip 跳过、equal 同样好、myopic 短视。
  • (section 3.4)tasks 任务:

    • DeepMind Control Suite (DMControl) 的两个 locomotion 任务(Walker-walk 和 Quadruped-walk)、Meta-world 的两个 robotic manipulation 任务(Button Press 和 Sweep Into)来自 (Yu 等人,2020 年)。
    • 专注于 ① 本体感受输入(proprioceptive inputs 而非 比如说 robotic arms + camera 的视觉输入 visual observations)② 密集奖励(dense reward 而非 sparse reward)。

4 algorithmic baselines for PBRL

大概是本文评测的 PBRL baselines?

  • (section 4.1)PBRL 基础: reward model、preference、loss function。
  • (section 4.2)PEBBLE:可以参考本站 博客
    • 先通过基于熵(魔改)的 intrinsic reward,对 agent 进行 unsupervised pre-training;
    • 然后,在跑 PBRL 的过程中,选择熵最大(最接近 decision boundary)的 segment pair 进行 query;
    • 最后,在训 RL 时,每当 reward model 更新,就把所有之前得到的 transition tuple (s,a,s') 都重新标一下 r,重新训练。

5 使用 B-Pref 分析 PBRL 算法设计

Pieter Abbeel 的 experiment 部分之问:

  • How do existing preference-based RL methods compare against each other across environments with different complexity?
    现有的 PBRL 方法,在不同复杂度的环境中,如何相互比较?
  • How to use B-Pref to analyze algorithmic design decisions for preference-based RL?
    如何使用 B-Pref 分析 PBRL 的算法设计决策?

正文:

  • (section 5.1)Training details:好像还涉及了一个算法 PrefPPO,好像还没了解过…

  • (section 5.2)对 prior methods 进行 benchmarking,大概是“对现有方法进行基准测试”的意思?大概是实验结果。

  • (section 5.3)算法设计对 reward learning 的影响:

  • Selecting informative queries:首先考察 sampling queries 的方法:(详见 Appendix C)

    • uniform sampling 均匀采样。

    • uncertainty-based sampling 基于不确定性的采样:测量不确定性,使用 ensemble reward model 的方差,或熵的方差之类。

    • coverage-based sampling 基于覆盖率的采样: greedy method,选择与其最近 center 距离最大的 query;选择尽量远的,尽可能覆盖整个空间。

    • hybrid method:首先,使用基于不确定性的采样,选择 N_inter 个 segment pair,然后再在其中选择 N_query 个中心点。

    • 实验结果: uncertainty-based sampling 最好,coverage-based sampling 没有用还变慢了。

  • Feedback schedule:

    • Feedback schedule:每个 feedback sessions 的 queries 数量。
    • ① uniform;② decay:正比于 T/(T+t);③ increase:正比于 (T+t)/T。
    • 实验结果:感觉没什么影响。meta-gradient 这样的自适应 schedule 还是有趣的。
  • Reward analysis:作者声称 PEBBLE 学到的 reward function 与 ground truth 是对齐的。

  • misc:

    • 貌似 figure 2 使用的指标是 IQM(interquartile mean 四分位数间平均值),是一种平均值定义。figure 2 考察了 normalized episodic returns 的 IQM 平均值,normalize 方法见 section 3.3 的公式,PBRL average returns 除以使用 ground truth reward 的 RL 的 average returns。
    • Appendix 里有大量实验结果。
  • RL benchmark,感觉提到了很多有名的 benchmark。
  • Human-in-the-loop RL。


标签:PBRL,Pref,benchmark,preference,RL,based,reward
From: https://www.cnblogs.com/moonout/p/17868387.html

相关文章

  • [AGC052C] Nondivisible Prefix Sums 题解
    题目链接点击打开链接题目解法好题!一个序列是不合法的,必定满足某些结论,我们不妨猜测一下首先如果和为\(P\)的倍数,必定不合法然后手玩几个可以发现,最极限的情况是\(P-1\)个\(1\;+\;\)\(b_i\;+\;\)\(P-b_i\)如果在这个情况下再加一个\(1\),就爆了其中\(1\)可以替......
  • LLM面面观之Prefix LM vs Causal LM
    1.背景关于PrefixLM和CausalLM的区别,本qiang在网上逛了一翻,发现多数客官只给出了结论,但对于懵懵的本qiang,结果仍是懵懵...因此,消遣了多半天,从原理及出处,交出了PrefixLM和CausalLM两者区别的更为清楚的说明。2.PrefixLMPrefixLM,即前缀语言模型,该结构是Google的T5模型论......
  • NX二次开发UF_CAM_ask_cam_preferences 函数介绍
    文章作者:里海UF_CAM_ask_cam_preferencesDefinedin:uf_cam.hintUF_CAM_ask_cam_preferences(UF_CAM_preferences_p_tprefs)overview概述ThisfunctionprovidesthecurrentsettingsoftheCAMpreferences.此函数提供CAM首选项的当前设置。UFUN例子parameters参数UF_......
  • NX二次开发UF_CAM_PREF_set_logical_value 函数介绍
    文章作者:里海UF_CAM_PREF_set_logical_valueDefinedin:uf_cam_prefs.h intUF_CAM_PREF_set_logical_value(UF_CAM_PREF_tpref,logicalvalue)overview概述ThisfunctionsetsthelogicalsettingofthespecifiedCAMPreference.此函数设置指定CAM首选项的逻辑设置。U......
  • NX二次开发UF_CAM_PREF_set_integer_value 函数介绍
    文章作者:里海UF_CAM_PREF_set_integer_valueDefinedin:uf_cam_prefs.h intUF_CAM_PREF_set_integer_value(UF_CAM_PREF_tpref,intvalue)overview概述ThisfunctionsetstheintegervalueofthespecifiedCAMPreference.此函数设置指定CAM首选项的整数值。UFUN例子p......
  • 【go】【test】benchmark
    @目录写在前面go测试基础测试fib.gotest_fib.go使用内存generate_test.go测试参数测试generate_test.go参数测试timeRestnullsort_test.go测试开始记时⌛️和测试结束计时⌛️测试参考资料写在前面相关博文个人博客首页免责声明:仅供学习交流使用!开源框架可能存在的风险和相关......
  • Unity学习笔记--数据持久化之PlayerPrefs的使用
    数据持久化PlayerPrefs相关PlayerPrefs是Unity游戏引擎中的一个类,用于在游戏中存储和访问玩家的偏好设置和数据。它可以用来保存玩家的游戏进度、设置选项、最高分数等信息。PlayerPrefs将数据存储在本地文件中,因此可以在游戏重新启动时保持数据的持久性。//PlayerPrefs的数据......
  • mac 下使用 brew 安装包报错 error: Cannot install under Rosetta 2 in ARM default
    mac下使用brew安装包报错error:CannotinstallunderRosetta2inARMdefaultprefix(/opt/homebrew)!TorerununderARMuse:arch-arm64brewinstall...Toinstallunderx86_64,installHomebrewinto/usr/local.解决办法:arch-arm64brewinstallxxx......
  • DHCPv6 PD(Prefix Delegation)前缀代理
    概念DHCPv6前缀代理DHCPv6PD(PrefixDelegation)是一种前缀分配机制,通过DHCPv6前缀代理机制,下游网络设备不需要再手工指定用户侧链路的IPv6地址前缀,它只需要向上游网络设备提出前缀分配申请,上游网络设备便可以分配合适的地址前缀给下游设备,下游设备把获得的前缀再通过路由通告(RA)......
  • RLHF · PBRL | 发现部分 D4RL tasks 不适合做 offline reward learning 的 benchmark
    论文题目:BenchmarksandAlgorithmsforOfflinePreference-BasedRewardLearning,TMLR20230103发表。openreview:https://openreview.net/forum?id=TGuXXlbKsnpdf版本:https://arxiv.org/pdf/2301.01392.pdfhtml版本:https://ar5iv.labs.arxiv.org/html/2301.01392目......