蚂蚁百灵大模型团队开源高性能推理 MoE 模型 Ring-mini-2.0
蚂蚁百灵大模型团队正式发布 Ring-mini-2.0,一款基于 Ling-mini-2.0 架构深度优化的高性能推理型 MoE 模型(Thinking model)。
它在总参数量 16B、仅激活 1.4B 参数的情况下,即可达到 10B 级别以下 dense 模型的综合推理能力,尤其在逻辑推理、代码与数学任务中表现卓越,并支持 128K 长上下文及 300+ token/s 的高速生成。
Ring-mini-2.0 以 Ling-mini-2.0-base 为基础继续训练,经过 Long-COT SFT、更稳定持续的大规模 RLVR 以及 RLHF 联合优化,显著提升了复杂推理的稳定性与泛化性。在多项高难度基准(LiveCodeBench、AIME 2025、GPQA、ARC-AGI-v1 等)中,在输出长度相当的情况下,性能显著超越 10B 以下 dense 模型,甚至媲美更大参数量的 MoE 模型(如 gpt-oss-20B-medium),在逻辑推理方面尤为突出。
Ring-mini-2.0 已全面开源,模型权重、训练策略与数据配方将全部开放。
HuggingFace:https://huggingface.co/inclusionAI/Ring-mini-2.0
ModelScope:https://modelscope.cn/models/inclusionAI/Ring-mini-2.0

