您现在的位置是:首页 > 文章详情

Mistral AI 开源 Mistral 8x22B Moe 大模型

日期:2024-04-10点击:200

Mistral AI 公司刚刚再次用磁力链接开源了一款大模型 —— Mistral 8x22B,模型文件大小为 281.24 GB。

从模型的名字来看,Mistral 8x22B 是去年开源的「mixtral-8x7b」的超级大杯版本,参数规模增长三倍不止——由 8 个 220 亿参数规模 (8×22B) 的专家网络组成。

https://twitter.com/MistralAI/status/1777869263778291896

磁力链接地址:

 magnet:?xt=urn:btih:9238b09245d0d8cd915be09927769d5f7584c1c9&dn=mixtral-8x22b&tr=udp%3A%2F%http://2Fopen.demonii.com%3A1337%2Fannounce&tr=http%3A%2F%http://2Ftracker.opentrackr.org%3A1337%2Fannounce

目前 Mistral AI 已经开源的模型如下:

原文链接:https://www.oschina.net/news/286974/mistral-8-22b
关注公众号

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。

持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。

转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。

文章评论

共有0条评论来说两句吧...

文章二维码

扫描即可查看该文章

点击排行

推荐阅读

最新文章