腾讯开源多模态统一 CoT 奖励模型
腾讯混元联合上海 AI Lab、复旦大学、上海创智学院,于近日正式推出了全新研究成果 —— 统一多模态奖励模型(Unified Reward-Think)。“首次让奖励模型在各视觉任务上真正 “学会思考”,实现对复杂视觉生成与理解任务的准确评估、跨任务泛化与推理可解释性的大幅提升。”
目前该项目已全面开源:包括模型、数据集、训练脚本与评测工具。“UnifiedReward-Think 展示了奖励模型的未来方向 —— 不仅仅是一个 “打分器”,而是一个具备认知理解、逻辑推理与可解释输出能力的智能评估系统。”
一、背景与动机:奖励模型也需要 “思考”
当前的多模态奖励模型大多只能对结果进行 “表面判断”,缺乏深度推理与可解释的决策依据,难以支撑对复杂视觉任务的精准评估。该工作研究团队提出关键问题:是否可以引入 “长链式思考”(Chain-of-Thought, CoT)机制,赋予奖励模型更强的推理能力?
挑战在于,当前缺乏高质量的多模态 CoT 奖励推理数据,传统 SFT 等训练范式难以直接教会模型掌握推理过程。他们认为,多模态大模型本身具备深层、多维度的推理潜力,关键在于设计一套高效训练范式去激发并强化奖励模型的 “思考能力”。
二、解决方案:三阶段训练范式,逐步进化奖励模型推理能力
该研究提出一套新颖的 “三阶段” 训练框架,分为 “激发 → 巩固 → 强化”,层层推进模型的推理进化:
阶段一:冷启动激发(Cold Start)
使用仅 5K 图像生成任务的高质量 CoT 奖励推理数据,让模型学会基本的推理格式与结构。实验表明,这一阶段就能激发模型在多个视觉任务中的推理能力。
阶段二:拒绝采样巩固(Rejection Sampling)
利用冷启动后的模型在各视觉任务的泛化能力,对大规模多模态偏好数据进行推理,通过拒绝采样剔除逻辑错误样本,强化模型对正确思维链的推理模式。
阶段三:GRPO 强化(Group Relative Policy Optimization)
针对推理错误样本,引入 GRPO 强化学习机制,引导模型探索多样化推理路径,从错误中学习,逐步收敛到正确逻辑思考。
三、实验亮点:奖励模型不仅能 “显示长链推理”,还能 “隐式逻辑思考”
UnifiedReward-Think 在多个图像生成与理解任务中进行了系统评估,结果表明该模型具备多项突破性能力:
- 更强可解释性:能够生成清晰、结构化的奖励推理过程;
- 更高可靠性与泛化能力:各视觉任务均表现出显著性能提升;
- 出现隐式推理能力:即使不显式输出思维链,模型也能作出高质量判断,表明推理逻辑已 “内化” 为模型能力的一部分。
- 定量实验:长链推理带来全面性能飞跃
定量结果表明,在图像与视频生成奖励任务中,全面优于现有方法;在图像理解类奖励任务上,长链思维链推理带来显著性能提升,验证了复杂视觉理解对深度推理能力的高度依赖;即便在不显式输出思维链的情况下,模型仍能通过隐式逻辑推理保持领先表现,相比显式 CoT 推理仅有轻微下降,展现出强大的 “内化逻辑” 能力;与基础版本 UnifiedReward 相比,加入多维度、多步骤推理带来了多任务的全面性能跃升,验证了 “奖励模型也能深度思考” 的价值。
消融实验:三阶段训练策略缺一不可
该工作进行了系统的消融实验,验证三阶段训练范式中每一步的独立贡献:
- 冷启动阶段:模型学会了 CoT 推理的结构,但对奖励预测的准确性仍较有限;
- 拒绝采样阶段:通过筛除推理错误样本,显著提升了模型对 “正确思维链” 的偏好,有效增强了模型的稳定性与泛化性;
- GRPO 阶段:提升幅度最大,模型聚焦于错误推理样本,通过多路径推理探索,逐步收敛至更精确的推理过程,体现出该阶段对 “推理纠错” 的关键作用。
无推理路径的 GRPO 版本效果显著下降。进一步验证:若去除 CoT 推理、让奖励模型仅对最终答案进行 GRPO 强化,虽然略优于 baseline,但提升比较有限。说明仅优化结果远不足以驱动深层推理能力的形成。
结论:显式建模思维链推理路径,是强化奖励模型泛化与鲁棒性的关键。GRPO 训练阶段之所以有效,根源在于 “强化正确推理过程”,而非仅仅是 “强化正确答案”。
更多详情可查看官方公告。

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
Servo 重大突破:已可运行 Gmail 和 Google Chat,多项 Web 特性支持获得显著提升
近日,开源浏览器引擎项目Servo发布了最新进展报告。该项目在过去两个月内取得了多项重要突破,其中最引人注目的是已经可以运行Gmail和Google Chat等复杂网站,这标志着Servo在Web兼容性方面迈出了重要一步。 AI政策保持不变 值得一提的是,Servo社区近期就是否允许使用AI工具(如GitHub Copilot)进行了广泛讨论。根据社区反馈,项目维护者决定继续保持现有的AI贡献禁令。这一决定表明了Servo社区对代码质量和开发流程的严格把控。 核心功能大幅提升 在技术层面,Servo在多个关键领域都取得了显著进展。Shadow DOM支持率提升了70个百分点达到77.9%,Trusted Types API和Content Security Policy的支持率分别提升至57.8%和54.8%。Streams API支持率提升了31.9个百分点至68.1%,CSS Text支持率提升了20.4个百分点至57.6%。这些改进使得Servo能够正确渲染更多现代网站。 此外,Servo还新增了多项重要特性支持,包括CSS嵌套语法、scale/rotate/translate变...
- 下一篇
微软宣布将裁员 3%,影响约 6000 人
当地时间5月13日,美国微软公司表示,该公司将裁减不到3%的员工,影响约6000人,裁员范围将覆盖所有级别和地区。微软称,将在美国华盛顿州雷德蒙德市裁员1985人。 微软发言人在给外媒CNBC的一份声明中提到:此次微软裁员与业绩无关,目标之一是减少管理层级。 截至今年6月底,微软在全球拥有22.8万名员工。这是自2014年以来,微软11年里的第三次大规模裁员。2014年微软CEO、董事长萨提亚·纳德拉(Satya Nadella)掌管公司不久,微软就进行了1.8万人的大裁员,第二次大规模裁员是2023年1月,再度宣布裁员1万人。 4月底,微软发布2025财年Q3业绩,营收701亿美元(折合人民币约5052亿元),同比增长13%,净利润258亿美元(折合人民币约1859亿元),同比增长18%,甚至好于分析师的预期。 即便如此,新一轮裁员仍将涉及所有级别、地区和团队,包括其子公司领英和GitHub。微软内部人士告诉外媒,这次调整是一个经过计算的步骤,旨在优化资源并确保继续在微软蓬勃发展的AI平台上进行大量投资,简化某些运营的决策成本以推动更多资本向AI战略转移。 投资银行DA Davids...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- SpringBoot2更换Tomcat为Jetty,小型站点的福音
- Docker安装Oracle12C,快速搭建Oracle学习环境
- CentOS7,CentOS8安装Elasticsearch6.8.6
- Docker快速安装Oracle11G,搭建oracle11g学习环境
- 2048小游戏-低调大师作品
- Docker使用Oracle官方镜像安装(12C,18C,19C)
- Linux系统CentOS6、CentOS7手动修改IP地址
- CentOS7安装Docker,走上虚拟化容器引擎之路
- CentOS7编译安装Cmake3.16.3,解决mysql等软件编译问题
- CentOS7设置SWAP分区,小内存服务器的救世主