美国初创公司 Arcee AI 发布开源 MoE 模型 Trinity
美国人工智能初创公司 Arcee AI 宣布推出全新开放权重模型系列 Trinity,包括已发布的 Trinity Nano 与 Trinity Mini,以及计划于 2026 年 1 月推出的 Trinity Large。
这一系列模型从数据、架构到训练流程均由 Arcee 自主构建,官方称“在美国进行端到端训练,提供开放权重、强大的推理能力和开发者完全控制权”。
Trinity 系列采用多专家架构(afmoe),每层 128 个专家,每个 token 激活 8 个专家并额外包含共享专家。模型训练基于 10T 级别数据,并加入 grouped-query attention、gated attention、长上下文支持等技术以提升稳定性与推理能力。
-
Trinity Nano:约 6B 参数 MoE(1B active),面向移动、嵌入式、隐私敏感等本地部署场景。
-
Trinity Mini:26B 参数 MoE(3B active),面向云或本地机房,适用于多步推理、工具调用、长文本处理等任务。
两款模型均采用 Apache 2.0 许可,权重已可下载或通过 API 使用。
https://huggingface.co/collections/arcee-ai/trinity
Arcee 表示,当前许多开源模型依赖他人基础模型微调,导致能力天花板明显、数据来源不透明、难满足企业合规需求。Trinity 转向完全自主的预训练路线,目标是构建可长期迭代、可在企业内部持续学习的模型体系。
Arcee AI 同时确认正在训练 Trinity Large(约 420B 参数、13B active),使用 2048 片 B300 GPU,数据规模扩展至 20T tokens。官方计划在 2026 年 1 月正式发布,并提供完整技术报告。


