荣耀申请魔方大模型商标
天眼查信息显示,荣耀终端有限公司近日申请注册“荣耀魔方大模型”商标,国际分类为网站服务,当前商标状态为等待实质审查。
此前,该公司曾申请两枚“MAGIC 大模型”商标。荣耀 CEO 赵明曾发文称,荣耀即将推出自研端侧 AI 大模型和全新云服务。
低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
HashiCorp 采用 BSL 后续,Linux 基金会孵化 Vault 开源替代品
今年 8 月,专注于云基础设施的软件供应商 HashiCorp宣布修改其核心产品的开源协议。所有 HashiCorp 产品的未来版本将从 Mozilla Public License v2.0 (MPL 2.0) 变更为Business Source License (BSL, also known as BUSL) v1.1,其中包括Vault、Boundary、Consul、Nomad、Packer、Terraform、Vagrant 和Waypoint 等。 采用 BSL 1.1 的项目,其代码仍会公开 (source-available),但只允许在特定条件下进行复制、修改、重新分发、非商业使用和商业使用—— 主要是添加了商业使用方面的限制。 此后,社区在抗议无效后选择创建了 Terraform 的分支项目 OpenTofu(原名 OpenTF),并托管在了 Linux 基金会下。 时至今日,有消息称 Linux 基金会正计划帮助孵化一个私密信息管理工具 Vault 的开源替代品。DevOps 自动化公司 Scalr 的联合创始人兼首席执行官 Sebastian Stadil ...
- 下一篇
开源 MoE 模型 Mixtral 8x7B 性能超过 GPT-3.5
大模型创业公司 Mistral AI 终于介绍了前两天“开源”的MoE 模型 Mixtral 8x7B。 Mistral AI 用「磁链链接」开源了 87 GB 的 8x7B MoE 模型 官方称,Mixtral 8x7B 是开放权重的高质量稀疏混合专家模型 (SMoE),采用 Apache 2.0 License 开源。在大多数基准测试中,Mixtral 的成绩都优于 Llama 2-70B,且推理速度提升了 6 倍。而且在大多数标准基准测试中超过 GPT-3.5。 因此,Mistral AI 称 Mixtral 是最强大的开放权重模型,也是成本/性能权衡方面的最佳模型。 Mixtral 主要特性 • 32k上下文 • 支持英语、法语、意大利语、德语和西班牙语 • 性能超过 Llama 2 系列和GPT-3.5 • 在代码生成方面具有强劲性能 • 在 MT-Bench 上获得 8.3 分 Mixtral 作为稀疏混合专家网络,是一个纯解码器模型,其中前馈块从 8 组不同的参数组中选择。在每一层,对于每个 token,路由网络选择两组“专家”来处理 token 并相加地结合它们的输出。...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- SpringBoot2整合MyBatis,连接MySql数据库做增删改查操作
- SpringBoot2全家桶,快速入门学习开发网站教程
- CentOS6,7,8上安装Nginx,支持https2.0的开启
- Windows10,CentOS7,CentOS8安装Nodejs环境
- SpringBoot2配置默认Tomcat设置,开启更多高级功能
- CentOS8安装MyCat,轻松搞定数据库的读写分离、垂直分库、水平分库
- CentOS8编译安装MySQL8.0.19
- Docker快速安装Oracle11G,搭建oracle11g学习环境
- CentOS7,CentOS8安装Elasticsearch6.8.6
- Docker使用Oracle官方镜像安装(12C,18C,19C)