news 2026/2/12 8:02:36

CGPO:完美融合—用评审混合机制重塑RLHF

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
CGPO:完美融合—用评审混合机制重塑RLHF

强化学习人类反馈(Reinforcement learning from human feedback,RLHF)已成为微调大语言模型(LLM)的主流方法。然而,RLHF在多任务学习(MTL)中存在局限性,原因在于奖励操纵(reward hacking)问题以及极端的多目标优化(即多个甚至有时相互冲突的目标之间的权衡)带来的挑战。当前在多任务学习中应用RLHF通常需要通过人工直觉仔细调整奖励模型权重和数据组合的比例,但这种方式难以泛化。

在本工作中,我们提出了一种新的后训练范式,称为约束生成策略优化(Constrained Generative Policy Optimization,CGPO)。CGPO的核心是评审混合机制(Mixture of Judges,MoJ),结合了具成本效益的分层约束策略优化方法,能够以原理化方式识别RLHF中的“完美融合”。CGPO具有强大的实证效果和理论保证,无需大量超参数调优,并可直接接入常见的后训练流程中。通过这种方式,CGPO能够检测并缓解奖励操纵行为,同时在极大量的优化目标上达到帕累托最优点。

我们的实验结果表明,CGPO在通用聊天、STEM问题、指令跟随、数学、编程和知识问答等多个任务上持续优于当前常用的RLHF最先进算法(如PPO和DPO)。具体而言,在AlpacaEval-2(通用聊天)上比PPO提高了7.4%,在Arena-Hard(STEM与推理)中提高了12.5%,在IFEval(指令跟随)中提高了2%,在MATH和GSM8K(数学与推理)中均提高了2%,在HumanEval(编程)中提高了5%,在ARC challenge(知识)中提高了2%。我们还观察到PPO在主流编程基准测试中出现了严重的奖励操纵行为,而CGP

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/2/8 9:29:22

告别高延迟:构建高效VSCode Agent HQ工作环境的6大核心配置

第一章:VSCode Agent HQ 性能优化的核心价值在现代软件开发中,编辑器性能直接影响开发者的工作效率与体验。VSCode Agent HQ 作为集成开发环境中的智能代理核心,其性能优化不仅提升了响应速度,还显著降低了资源占用,使…

作者头像 李华
网站建设 2026/2/12 12:58:44

Keil5安装教程通俗解释:五分钟搞懂关键步骤

五分钟搞懂 Keil5 安装:从零开始搭建嵌入式开发环境 你是不是刚接触STM32,打开电脑准备写第一行代码时,却被“Keil怎么装?”这个问题卡住了? 别急。虽然网上教程不少,但很多只是机械地告诉你“下一步、下…

作者头像 李华
网站建设 2026/2/12 8:01:19

为什么你的VSCode聊天功能越用越慢?,一文看懂资源占用真相

第一章:为什么你的VSCode聊天功能越用越慢?在使用 VSCode 的集成聊天功能(如 GitHub Copilot Chat 或其他 AI 插件)时,许多开发者反馈随着使用时间增长,响应速度明显变慢。这一现象通常并非网络问题&#x…

作者头像 李华
网站建设 2026/2/7 16:54:02

提升团队编码效率的关键:VSCode行内聊天性能优化的7个黄金法则

第一章:VSCode行内聊天性能优化的背景与意义 随着现代软件开发对协作效率要求的不断提升,集成开发环境(IDE)逐渐从单一代码编辑工具演变为集成了通信、调试、版本控制等多功能的一体化平台。VSCode 作为当前最流行的开源编辑器之一…

作者头像 李华