Mistral AI 用「磁链链接」开源了 87 GB 的 8x7B MoE 模型
有“欧洲版 OpenAI”之称的大模型创业公司——Mistral AI 昨天发布了一条仅包含磁力链接的推文:
网友打开该磁力链接后发现居然是一个大小为 87 GB 的种子。从命名和目录结构来看,这是一个 PyTorch 模型文件。
上图的“params.json”JSON 格式文件显然是该模型的主要参数信息,具体如下:
结合参数和文件名信息,Mistral AI 这次“开源”的 mixtral-8x7b-32kseqlen 是一个基于混合专家 (Mixture of Experts, MoE) 的大模型,由 8 个 70 亿参数规模 (8×7b) 的专家网络组成。据称是全球首个开源 MoE 大模型。
MoE 是用于提高大语言模型效率和准确度的技术。这种方法的核心是将复杂任务划分为更小、更易管理的子任务,每个子任务由专门的小型模型或“专家”负责,然后根据输入数据的特性选择性地激活这些“专家”。
MoE 核心组成:
-
专家(Experts):训练有素的小型神经网络,擅长特定领域。每个专家通常专注于处理一种特定类型的数据或任务。专家的设计可以是多种形式,如完全连接的网络、卷积网络等。
-
门控机制(Gating Mechanism):MoE 架构决策者,这是一个智能路由系统,负责决定哪些专家应该被激活来处理当前的输入数据。门控机制基于输入数据的特性,动态地将数据分配给不同的专家。
根据 mixtral-8x7b-32kseqlen 的参数信息,该模型对每个 token 的推理使用 2 个专家进行处理(和传闻中的 GPT-4 一样)。
此前揭秘 GPT-4 技术细节的文章提到,GPT-4 是由 16 个专家组成的 MoE 模型,每个专家则是一个包含 1110 亿参数的大模型,每次前向传递路由经过 2 个专家模型。
Mistral AI 目前仍没公布除模型下载链接外的任何信息,如果不想下载但又想体验一把,可以访问下面的网站:
- https://replicate.com/nateraw/mixtral-8x7b-32kseqlen
- https://app.fireworks.ai/models/fireworks/mixtral-8x7b-fw-chat
对了,这不是 Mistral AI 第一次用“留种”的方式发布开源大模型。Mistral AI 在 9 月底发布的那条磁力链接是其开源的第一个大模型 Mistral-7B,该模型至今仍被称为「最好的 7B 模型」,在每个基准测试中都优于 Llama-2 13B,并且在代码、数学和推理方面优于 LLaMA-1 34B。
低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
惊人发现:加班与生产力下降之间的联系
Slack的劳动力指数揭示了如何安排工作日以最大化员工生产力、幸福感和满意度的新发现。 概要: 你在工作上如何花费时间,它又在怎样消耗你?Slack的劳动力指数是基于对全球10,000多名办公室员工的调查回复得出的,揭示了如何安排工作日以最大化生产力和增强员工幸福感和满意度的新发现。 主要知识点包括: 在工作日结束时下线的员工比那些觉得有义务在下班后工作的员工的生产力得分高出20%。 在工作日中抽出时间休息可以提高员工的生产力和幸福感,但有一半的办公室员工表示他们很少或从不休息。 平均而言,办公室员工表示每天理想的专注时间约为四个小时,而每天超过两个小时的会议是大多数员工感到会议负担过重的临界点。 每四个办公室员工中就有三个表示在下午3点到6点的时间段工作,但其中只有四分之一的人认为这些时间高效。 几十年来,许多人在办公室加班被视为努力工作和生产力的标志,甚至是一种荣誉的象征。但Slack的新研究表明,尽管存在这种长期观念,但下班后工作往往与较低的生产力水平相关,并且可能是一个警告信号,表明员工正在处理过多的任务,需要帮助确定优先顺序和平衡时间。 根据Slack对全球10,000多名办...
- 下一篇
机器学习硬件十年:性能变迁与趋势
本文分析了机器学习硬件性能的最新趋势,重点关注不同GPU和加速器的计算性能、内存、互连带宽、性价比和能效等指标。这篇分析旨在提供关于ML硬件能力及其瓶颈的全面视图。本文作者来自调研机构Epoch,致力于研究AI发展轨迹与治理的关键问题和趋势。 (本文由OneFlow编译发布,转载请联系授权。原文:https://epochai.org/blog/trends-in-machine-learning-hardware#computational-price-performance 作者 |Marius Hobbhahn、Lennart Heim、Gökçe Aydos OneFlow编译 翻译|杨婷、宛子琳 要点概览 图1:常见机器学习加速器在给定精度下的峰值计算性能。自2016年以来,已出现了新的数值格式。趋势线展示了带有八个或更多加速器的数值格式:FP32、FP16(FP = 浮点、张量-* = 张量核心处理、TF = Nvidia 张量浮点、INT = 整数) 我们研究了GPU在不同数值表示、内存容量、带宽以及互连带宽方面的计算性能,使用的数据集包括2010年到2023年常用于机器...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- SpringBoot2整合Thymeleaf,官方推荐html解决方案
- CentOS7编译安装Gcc9.2.0,解决mysql等软件编译问题
- Eclipse初始化配置,告别卡顿、闪退、编译时间过长
- CentOS7,CentOS8安装Elasticsearch6.8.6
- Springboot2将连接池hikari替换为druid,体验最强大的数据库连接池
- CentOS关闭SELinux安全模块
- CentOS7设置SWAP分区,小内存服务器的救世主
- SpringBoot2全家桶,快速入门学习开发网站教程
- CentOS8编译安装MySQL8.0.19
- CentOS7安装Docker,走上虚拟化容器引擎之路