华为公布「盘古 Pro MoE」混合专家模型
日前,华为盘古团队正式公布了昇腾原生的分组混合专家模型——「盘古 Pro MoE」。
据盘古团队介绍:
混合专家模型(MoE)在大语言模型(LLMs)中逐渐兴起,该架构能够以较低计算成本支持更大规模的参数,从而获得更强的表达能力。这一优势源于其稀疏激活机制的设计特点,即每个输入 token 仅需激活部分参数即可完成计算。然而,在实际部署中,不同专家的激活频率存在严重的不均衡问题,一部分专家被过度调用,而其他专家则长期闲置,导致系统效率低下。
为此,盘古团队提出了新型的分组混合专家模型(Mixture of Grouped Experts, MoGE),其在专家选择阶段对专家进行分组,并约束 token 在每个组内激活等量专家,从而实现专家负载均衡,显著提升模型在昇腾平台的部署效率。
据悉,盘古 Pro MoE 模型基于 MoGE 架构,团队构建了总参数量 720 亿、激活参数量 160 亿,并针对昇腾 300I Duo 和 800I A2 平台进行系统优化。
性能表现上,盘古 Pro MoE 在昇腾 800I A2 上实现了单卡 1148 tokens/s 的推理吞吐性能,并可进一步通过投机加速等技术提升至 1528 tokens/s,显著优于同等规模的 320 亿和 720 亿参数的稠密模型;在昇腾 300I Duo 推理服务器上,盘古团队也实现了极具性价比的模型推理方案。
团队研究表明,昇腾 NPU 能够支持盘古 Pro MoE 的大规模并行训练。多项公开基准测试结果表明,盘古 Pro MoE 在千亿内总参数模型中处于领先地位。
从官方给出的对比表格来看,盘古 Pro MoE 与 Qwen3-32B、GLM-Z1-32B、Gemma3-27B、Llama4-Scout 对比,在中文、英文、推理等多个领域均有超越。
模型技术报告(中文):https://gitcode.com/ascend-tribe/pangu-pro-moe/blob/main/README.md
模型技术报告(英文):https://arxiv.org/abs/2505.21411

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
中国信通院完成对 Xiaomi Vela 性能与安全性的测试认证
中国信息通信研究院(简称“中国信通院”)近日对小米研发的轻量级操作系统 Xiaomi Vela 进行了性能与安全性的全面测评。结果显示,Xiaomi Vela性能及安全性达到了五星级标准。本次测评认证依据《MCU应用容器性能与系统安全能力认证技术规范》进行测评。 “这一成果不仅体现了小米在基础软件领域的创新能力,也标志着我国在操作系统研发道路上的重要突破。” Xiaomi Vela 是小米基于开源实时操作系统 NuttX 打造的物联网嵌入式软件平台 ,Xiaomi Vela 轻量容器是 Xiaomi Vela 在轻量操作系统中研发的一个安全、高性能、应用可独立升级的容器技术。经中国信通院测评,Xiaomi Vela 轻量容器展现出以下优势: 安全隔离:硬件级防护与内存安全双保险基于硬件可信执行环境,将应用代码运行在加密内存区域中,借助轻量容器,应用之间形成行业首创的三重隔离。 轻量独立沙箱:资源占用低,启动速度快 与其他独立沙箱比,轻量容器中字节码更紧凑,资源占用更低,支持应用静态编译后,应用启动性能也大幅提升。 近原生性能:编译优化与架构创新突破效率边界高级语言可以借助轻量容器完静态...
- 下一篇
蚂蚁百灵团队开源统一多模态大模型 Ming-lite-omni
蚂蚁百灵大模型(Ling)团队正式开源统一多模态大模型 Ming-lite-omni。 官方介绍称,这是一款基于 Ling-lite 构建的 MoE 架构的全模态模型,其总参数 22B,激活参数 3B,在多项理解和生成能力评测中,性能与 10B 量级领先的多模态大模型相当或更优。这也是目前已知首个在模态支持方面能够与 GPT-4o 相媲美的开源模型。 另外,蚂蚁百灵大模型团队还将持续优化 Ming-lite-omni 在全模态理解和生成任务上的效果,并提升 Ming-lite-omni 的多模复杂推理能力;同时也会训练更大尺寸的全模态模型 Ming-plus-omni, 以期进一步解决更多高度专业化或领域化的复杂交互问题。 Ming-lite-omni 当前模型权重和推理代码已开源,后续会陆续开源训练代码和训练数据。 GitHub:https://github.com/inclusionAI/Ming/tree/main/Ming-omni Hugging Face:https://huggingface.co/inclusionAI/Ming-Lite-Omni ModelScope...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Mario游戏-低调大师作品
- CentOS7编译安装Cmake3.16.3,解决mysql等软件编译问题
- SpringBoot2全家桶,快速入门学习开发网站教程
- MySQL8.0.19开启GTID主从同步CentOS8
- SpringBoot2整合Redis,开启缓存,提高访问速度
- Windows10,CentOS7,CentOS8安装MongoDB4.0.16
- Docker安装Oracle12C,快速搭建Oracle学习环境
- CentOS7设置SWAP分区,小内存服务器的救世主
- CentOS8安装Docker,最新的服务器搭配容器使用
- Docker使用Oracle官方镜像安装(12C,18C,19C)