蚂蚁百灵大模型团队发布 Ling-1T:万亿参数“非思考”模型、基于 MoE 架构
蚂蚁百灵大模型团队正式发布Ling 2.0系列的第一款旗舰非思考模型:拥有万亿参数的Ling-1T。 Ling-1T沿用Ling 2.0 架构,如其模型代号所示,总参数已扩展至1T(Trillion,万亿),每个token激活其中约50B参数。 Ling-1T-base在20T+ token高质量、高推理浓度的语料上完成预训练,支持最高128K上下文窗口,通过“中训练+后训练”的演进式思维链(Evo-CoT)极大提升模型高效推理能力。 Ling-1T 全程采用 FP8 混合精度训练(部分技术已开源),是目前已知规模最大的使用 FP8 训练的基座模型。这一设计为训练带来了显著的显存节省、更灵活的并行切分策略和 15%+ 的端到端加速。 据介绍,Ling-1T在有限输出token条件下,于多项复杂推理基准中取得SOTA表现,展示出在高效思考与精确推理之间的卓越平衡。 开源仓库和体验页面: HuggingFace:https://huggingface.co/inclusionAI/Ling-1T ModelScope:https://modelscope.cn/models/inclusi...

