蚂蚁百灵大模型团队发布 Ling-1T:万亿参数“非思考”模型、基于 MoE 架构
蚂蚁百灵大模型团队正式发布Ling 2.0系列的第一款旗舰非思考模型:拥有万亿参数的Ling-1T。
Ling-1T沿用Ling 2.0 架构,如其模型代号所示,总参数已扩展至1T(Trillion,万亿),每个token激活其中约50B参数。
Ling-1T-base在20T+ token高质量、高推理浓度的语料上完成预训练,支持最高128K上下文窗口,通过“中训练+后训练”的演进式思维链(Evo-CoT)极大提升模型高效推理能力。
Ling-1T 全程采用 FP8 混合精度训练(部分技术已开源),是目前已知规模最大的使用 FP8 训练的基座模型。这一设计为训练带来了显著的显存节省、更灵活的并行切分策略和 15%+ 的端到端加速。
据介绍,Ling-1T在有限输出token条件下,于多项复杂推理基准中取得SOTA表现,展示出在高效思考与精确推理之间的卓越平衡。
开源仓库和体验页面:
HuggingFace:https://huggingface.co/inclusionAI/Ling-1T
ModelScope:https://modelscope.cn/models/inclusionAI/Ling-1T
GitHub:https://github.com/inclusionAI/Ling-V2
Ling chat(国内用户):https://ling.tbox.cn/chat
ZenMux(海外开发者,提供 Chat 测试与 API 等能力):https://zenmux.ai/inclusionai/ling-1t





