您现在的位置是:首页 > 文章详情

腾讯混元公布 SRPO 技术,解决大模型生图“过油”问题

日期:2025-09-18点击:4

腾讯混元团队发布了最新研究成果 —— SRPO(Semantic Relative Preference Optimization,语义相对偏好优化),主要提供了文生图模型的强化算法,解决了开源文生图模型Flux的皮肤质感“过油”的问题,能让人像真实感提升3倍。

根据介绍,针对Flux.dev.1模型生成的人物质感“过油”的问题,SRPO 通过在线调整奖励偏好,优化早期生成轨迹等手段很好的解决了这个问题。

文生图领域传统的在线强化学习方法(如ReFL,DRaFT)虽展现极高的训练效率,但强依赖一个预先训练好的奖励模型。这些奖励模型除了需要耗费大量的成本收集数据外,还面临泛化性差的问题,通常难以满足多样化,高质量的后训练需求。

为了解决这个问题,腾讯混元团队联合香港中文大学(深圳)和清华大学提出了:语义相对偏好优化,通过语义偏好实现奖励模型的在线调整。

具体来说,SRPO通过为奖励模型添加特定的控制提示词(如“真实感”)来定向调整其优化目标。实验结果显示,这些控制词可以显著增强奖励模型在真实度等特定维度的优化能力。

研究人员进一步发现,单纯语义引导存在奖励破解rewardhacking风险针对这一问题团队提出创新语义相对偏好优化策略同时使用正向词负向作为引导信号通过负向梯度有效中和奖励模型一般性偏差同时保留语义差异特定偏好

并提出了Direct-Align策略输入图像进行可控噪声注入随后通过单步推理借助预先注入噪声作为参考锚点进行图像重建这种方法显著降低重建误差实现更精准奖励信号传导从而支持生成轨迹半段进行优化解决过拟合问题

SRPO具有极高的训练效率,只需10分钟训练即可全面超越DanceGRPO的效果。

SRPO 定量指标达SOTA水平,人类评估的真实度和美学优秀率提升超过3倍,训练时间相比DanceGRPO降低75倍。

原文链接:https://www.oschina.net/news/372907
关注公众号

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。

持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。

转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。

文章评论

共有0条评论来说两句吧...

文章二维码

扫描即可查看该文章

点击排行

推荐阅读

最新文章