腾讯混元公布 SRPO 技术,解决大模型生图“过油”问题
腾讯混元团队发布了最新研究成果 —— SRPO(Semantic Relative Preference Optimization,语义相对偏好优化),主要提供了文生图模型的强化算法,解决了开源文生图模型Flux的皮肤质感“过油”的问题,能让人像真实感提升3倍。
根据介绍,针对Flux.dev.1模型生成的人物质感“过油”的问题,SRPO 通过在线调整奖励偏好,优化早期生成轨迹等手段很好的解决了这个问题。
文生图领域传统的在线强化学习方法(如ReFL,DRaFT)虽展现极高的训练效率,但强依赖一个预先训练好的奖励模型。这些奖励模型除了需要耗费大量的成本收集数据外,还面临泛化性差的问题,通常难以满足多样化,高质量的后训练需求。
为了解决这个问题,腾讯混元团队联合香港中文大学(深圳)和清华大学提出了:语义相对偏好优化,通过语义偏好实现奖励模型的在线调整。
具体来说,SRPO通过为奖励模型添加特定的控制提示词(如“真实感”)来定向调整其优化目标。实验结果显示,这些控制词可以显著增强奖励模型在真实度等特定维度的优化能力。
研究人员进一步发现,单纯的语义引导仍存在奖励破解(rewardhacking)的风险。针对这一问题,团队提出创新的“语义相对偏好优化”策略:同时使用正向词和负向词作为引导信号,通过负向梯度有效中和奖励模型的一般性偏差,同时保留语义差异中的特定偏好。
并提出了Direct-Align策略,对输入图像进行可控的噪声注入,随后通过单步推理,借助预先注入的噪声作为“参考锚点”进行图像重建。这种方法显著降低了重建误差,实现更精准的奖励信号传导。从而支持对生成轨迹的前半段进行优化,解决过拟合问题。
SRPO具有极高的训练效率,只需10分钟训练即可全面超越DanceGRPO的效果。
SRPO 定量指标达SOTA水平,人类评估的真实度和美学优秀率提升超过3倍,训练时间相比DanceGRPO降低75倍。







