面壁智能发布端侧大模型“面壁MiniCPM”
2月1日,面壁智能举办新品发布会,推出了最新的旗舰级多模态大模型“面壁MiniCPM”,参数规模为20亿,使用了1TB精选数据进行训练。
面壁智能CEO李大海在发布会上表示,MiniCPM-2B在多项主流评测榜单、中英文平均成绩均超越了开源的Mistral-7B,英文榜单的平均分甚至超越了Falcon-40B、MPT-30B等百亿参数模型。
所谓“端侧大模型”,即模型服务部署在手机、电脑、IoT设备等本地终端,直接由终端芯片完成推理过程,无需联网。作为一款端侧大模型,MiniCPM 声称“跑通国际主流手机品牌与终端 CPU 芯片,老手机也无压力”,但从吞吐量来看,实际表现或许有待提升。
开源地址(内含技术报告):
- MiniCPM GitHub:https://github.com/OpenBMB/MiniCPM
- OmniLMM GitHub:https://github.com/OpenBMB/OmniLMM

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
AI2 开源新 LLM,重新定义 open AI
艾伦人工智能研究所(Allen Institute for AI,简称 AI2)宣布推出一个名为 OLMo 7B 的新大语言模型,并开源发布了预训练数据和训练代码。OLMo 7B 被描述为“一个真正开放的、最先进的大型语言模型”。 AI2 是由已故的微软公司联合创始人保罗-艾伦(Paul Allen)于 2014 年在西雅图创办的一家非营利组织。该组织表示,他们开源 OLMo 模型旨在让 AI 研究社区充分了解最先进的大语言模型(LLM),从而推动自然语言处理的发展,并以科学的方式正视现有 LLM 存在的问题。 “通过向公众完全开放 OLMo 及其训练数据,AI2 在协作构建世界上最好的开放语言模型方面迈出了一大步。” OLMo 框架具有一套完全开放的 AI 开发工具,包括: 完整的预训练数据:该模型建立在 AI2 的 Dolma 语料库上,该语料库具有三万亿个用于语言模型预训练的 token 开放语料,包括生成训练数据的代码。 训练代码和模型权重: OLMo 框架包括 7B 规模的四个模型变体的完整模型权重,每个模型至少训练有 2T token。提供了推理代码、训练指标和训练日志。 ...
- 下一篇
开源日报:“Linux 中国” 开源社区宣布停止运营;小红书开源「InstantID」
欢迎阅读 OSCHINA 编辑部出品的开源日报,每天更新一期。 # 2024.2.1 今日要点 OpenSource Daily Java 提案计划弃用 sun.misc.Unsafe 中的内存访问 OpenJDK 社区中一个名为 “Deprecate Memory-Access Methods in sun.misc.Unsafe for Removal” 的 JEP 草案提出,建议弃用 sun.misc.Unsafe 中的内存访问方法,以便在未来的 Java 版本中将其进行删除。 sun.misc.Unsafe 类于 2002 年引入,是 JDK 中 Java 类执行低级操作的一种方法,距今已有 20 多年的历史。在该类的 87 个方法中,有 79 个用于内存访问。 提案的目标包括为在未来的 JDK 版本中移除 sun.misc.Unsafe 中的内存访问方法做好准备,以及帮助开发人员了解他们的应用程序何时直接或间接依赖 sun.misc.Unsafe 中的内存访问方法。但它并不旨在完全删除 sun.misc.Unsafe 类,因为该类中的少量方法不用于内存访问,所以将会保持不被弃...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- CentOS关闭SELinux安全模块
- CentOS6,7,8上安装Nginx,支持https2.0的开启
- Windows10,CentOS7,CentOS8安装MongoDB4.0.16
- CentOS7,CentOS8安装Elasticsearch6.8.6
- Docker使用Oracle官方镜像安装(12C,18C,19C)
- Mario游戏-低调大师作品
- CentOS8编译安装MySQL8.0.19
- SpringBoot2配置默认Tomcat设置,开启更多高级功能
- CentOS7,8上快速安装Gitea,搭建Git服务器
- SpringBoot2编写第一个Controller,响应你的http请求并返回结果