来源:星火智游网 责编:网络 时间:2025-04-28 09:30:23
近日,DeepSeek 和清华的研究者发布新论文,探讨了奖励模型的推理时 Scaling 方法,让 DeepSeek R2似乎更近一步。目前,强化学习在大语言模型的大规模后训练阶段广泛应用,但面临为大语言模型获取准确奖励信号的挑战。
研究者发现,采用点式生成式奖励建模(GRM)能提升模型适应能力和推理阶段可扩展性。为此,他们提出自我原则点评调优(SPCT)学习方法,经此训练得到 DeepSeek - GRM 模型,如基于 Gemma -2-27B 训练的 DeepSeek - GRM -27B。实验显示,SPCT 显著提高了 GRM 的质量和可扩展性,在多个基准测试中表现优于现有方法和模型。此外,研究者还引入元奖励模型(meta RM)引导投票过程,提升扩展性能。
SPCT 方法分为两个阶段。一是拒绝式微调作为冷启动阶段,让 GRM 适应不同输入类型并以正确格式生成原则与点评内容。研究者采用点式 GRM,还引入提示式采样提高预测奖励与真实奖励的一致性。二是基于规则的在线强化学习阶段,采用基于规则的结果奖励,鼓励 GRM 生成更好的原则与点评内容,提升推理阶段可扩展性。
为提升 DeepSeek - GRM 性能,研究团队探索推理时扩展策略。通过生成奖励进行投票,扩大奖励空间,提升最终奖励质量。同时,训练元奖励模型引导投票,过滤低质量样本。实验结果表明,DeepSeek - GRM -27B 整体性能出色,通过推理时扩展还能进一步提升。消融研究显示在线训练对 GRM 很重要,原则生成对模型性能也至关重要。此外,研究还证明了 DeepSeek - GRM -27B 在推理时扩展上的有效性,优于单纯扩大模型规模。
划重点:
💡DeepSeek 和清华研究者提出自我原则点评调优(SPCT)方法及引入元奖励模型(meta RM),提升奖励模型推理时可扩展性,构建出 DeepSeek - GRM 系列模型。
🧪SPCT 分拒绝式微调与基于规则的在线强化学习两阶段,提高了 GRM 质量和扩展性,使 DeepSeek - GRM -27B 在基准测试中表现优异。
📈研究团队探索推理时扩展策略,通过生成奖励投票和元奖励模型引导投票提升性能,证明 DeepSeek - GRM -27B 推理时扩展有效性优于扩大模型规模。
论文地址:
https://arxiv.org/abs/2504.02495
自来也和纲手拔萝卜配音声音以其独特之韵味,令众人潜心于二者之互动。二者之声,乃是共鸣之道,情感之流,使人宛如置身于其境。二人虽在不
在当今这个信息爆炸的时代,网上的娱乐内容琳琅满目,其中漫画作为一种轻松、幽默的艺术形式,受到了众多年轻人的喜爱。尤其是歪歪㊙️羞羞
秋蝉漫画入口页面弹窗下拉式者,乃近来网络之新兴形式,旨在为众多漫画爱好者提供更加便捷之浏览体验。此一设计,非但省却繁杂之操作,且以
在这个数字化的时代,我们的生活离不开各种电子设备和互联网。而对于很多人来说,搞机 time 已经成为了一种生活方式。搞机,不仅可以让我
DeepSeek 联手清华大学开展研究: 通过创新奖励模型推理技术,显著增强系统的可扩展性
卡内基梅隆大学AI2T创新框架:提升智能体开发效率并推动多领域应用的变革之路
微软首席技术官预测到2030年将有95%的编程代码由人工智能生成,人类开发者的角色将发生重大转变
Midjourney V7 正式发布:全新模型带来极致美观与更高连贯性体验
字节跳动发布DreamActor-M1:全新Runway Act功能推动动画生成技术的突破与发展
新一代多模态框架推动蛋白质设计革命,人工智能引领生物科技的未来趋势
王者荣耀周年庆的具体日期是什么时候,以及每年的庆祝活动通常安排在几月几号
Anthropic 启动“人工智能助力校园”计划,推动高等教育与批判性思维的结合与发展
AI每日动态:即梦3.0内测发布2K商业海报;ChatGPT推出新图像生成功能;饿了么上线“AI智能入驻经理”服务
Infosys 与 Formula E 合作打造 AI 驱动的数据中心,以提升车迷的互动体验和赛事参与感