您现在的位置是:首页 > 文章详情

APUS 联合新旦智能开源国内首个千亿级 MoE 架构大模型

日期:2024-04-02点击:294

4月2日,APUS发布官方公告,称其与战略合作伙伴新旦智能联合训练、研发的千亿MoE(Mixture of Experts)架构大模型——APUS-xDAN-4.0(MoE)在GitHub上正式开源。

开源地址:https://github.com/shootime2021/APUS-xDAN-4.0-moe

据介绍,APUS-xDAN-4.0(MoE)是国内首个千亿以上参数MoE架构的开源大模型,参数规模为1360亿,这也是目前国内参数规模最大的开源模型。此前国内开源的大模型中,参数规模最大的是阿里720亿参数的千问72B,参数规模为720亿。

此外,APUS-xDAN-4.0(MoE)还是国内首个支持在4090低端算力上训练的千亿参数开源大模型,通过MoE架构和算法优化实现了对低端算力芯片的适配。模型架构如下:

APUS-xDAN-4.0(MoE)与其他模型的性能对比:

原文链接:https://www.oschina.net/news/285861/apus-xdan-4-0-moe
关注公众号

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。

持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。

转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。

文章评论

共有0条评论来说两句吧...

文章二维码

扫描即可查看该文章

点击排行

推荐阅读

最新文章