蚂蚁百灵大模型团队开源高性能推理 MoE 模型 Ring-mini-2.0
蚂蚁百灵大模型团队正式发布 Ring-mini-2.0,一款基于 Ling-mini-2.0 架构深度优化的高性能推理型 MoE 模型(Thinking model)。
它在总参数量 16B、仅激活 1.4B 参数的情况下,即可达到 10B 级别以下 dense 模型的综合推理能力,尤其在逻辑推理、代码与数学任务中表现卓越,并支持 128K 长上下文及 300+ token/s 的高速生成。
Ring-mini-2.0 以 Ling-mini-2.0-base 为基础继续训练,经过 Long-COT SFT、更稳定持续的大规模 RLVR 以及 RLHF 联合优化,显著提升了复杂推理的稳定性与泛化性。在多项高难度基准(LiveCodeBench、AIME 2025、GPQA、ARC-AGI-v1 等)中,在输出长度相当的情况下,性能显著超越 10B 以下 dense 模型,甚至媲美更大参数量的 MoE 模型(如 gpt-oss-20B-medium),在逻辑推理方面尤为突出。
Ring-mini-2.0 已全面开源,模型权重、训练策略与数据配方将全部开放。
HuggingFace:https://huggingface.co/inclusionAI/Ring-mini-2.0
ModelScope:https://modelscope.cn/models/inclusionAI/Ring-mini-2.0

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
-
上一篇
蚂蚁百灵大模型团队开源 MoE 大模型 Ling-flash-2.0
蚂蚁百灵大模型团队正式开源其最新 MoE 大模型 ——Ling-flash-2.0。 作为 Ling 2.0 架构系列的第三款模型,Ling-flash-2.0 以总参数 100B、激活仅 6.1B(non-embedding 激活 4.8B)的轻量级配置,在多个权威评测中展现出媲美甚至超越 40B 级别 Dense 模型和更大 MoE 模型的卓越性能。 据介绍,Ling-flash-2.0 在仅激活 6.1B 参数的前提下,实现了对 40B Dense 模型的性能超越,用最小激活参数,撬动最大任务性能。 为此,团队在多个维度上 “做减法” 也 “做加法”: 1/32 激活比例:每次推理仅激活 6.1B 参数,计算量远低于同性能 Dense 模型 专家粒度调优:细化专家分工,减少冗余激活 共享专家机制:提升通用知识复用率 sigmoid 路由 + aux-loss free 策略:实现专家负载均衡,避免传统 MoE 的训练震荡 MTP 层、QK-Norm、half-RoPE:在建模目标、注意力机制、位置编码等细节上实现经验最优 最终结果是:6.1B 激活参数,带来约 40B Dense...
-
下一篇
2024 年全社会研发投入超 3.6 万亿元,较 2020 年增长 48%
国务院新闻办公室今天(9月18日)下午举行 “高质量完成‘十四五’规划”系列主题新闻发布会,科技部负责人介绍“十四五”时期科技创新发展成就。 据介绍,“十四五”时期,我国科技投入持续增加,2024年全社会研发投入超3.6万亿元,较2020年增长48%;研发投入强度达到2.68%,超过欧盟国家平均水平;研发人员总量世界第一。 基础研究水平进一步提升。基础研究经费达2497亿元,较2020年增长超70%,在量子科技、生命科学、物质科学、空间科学等领域取得一批重大原创成果,高水平国际期刊论文数量和国际专利申请量连续5年世界第一。 国家战略科技力量不断壮大。国家实验室体系建设稳步推进,国家科研机构、高水平研究型大学科研能力不断提升,科技领军企业加快培育成长。 区域科技创新呈现良好态势。北京、上海、粤港澳大湾区国际科创中心支撑引领和辐射带动作用不断增强,深圳-香港-广州跃居全球百强创新集群榜首。成渝、武汉、西安区域科创中心建设加快推进。 国家综合创新能力排名由2020年的第14位提升至2024年的第10位。
相关文章
文章评论
共有0条评论来说两句吧...