您现在的位置是:首页 > 文章详情

元象首个 MoE 大模型开源:无条件免费商用、4.2B 激活参数

日期:2024-04-03点击:220

元象发布XVERSE-MoE-A4.2B大模型 ,采用业界最前沿的混合专家模型架构(Mixture of Experts),激活参数4.2B,效果即可媲美13B模型。

该模型全开源,无条件免费商用,让海量中小企业、研究者和开发者可在元象高性能“全家桶”中按需选用,推动低成本部署。

下载XVERSE-MoE-A4.2B大模型

XVERSE-MoE-A4.2B两大优势:

  1. 极致压缩:用相同语料训练2.7万亿token,元象MoE实际激活参数量4.2B,效果“跳级”超越XVERSE-13B-2,仅用30%计算量,并减少50%训练时间

  2. 超凡性能:在多个权威评测中,元象MoE效果大幅超越新晋业界顶流谷歌Gemma-7B和Mistral-7B、Meta开源标杆Llama2-13B等多个模型、并接近超大模型Llama1-65B。

权威测试集评测结果

 

原文链接:https://www.oschina.net/news/286049
关注公众号

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。

持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。

转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。

文章评论

共有0条评论来说两句吧...

文章二维码

扫描即可查看该文章

点击排行

推荐阅读

最新文章