腾讯混元新一代快思考模型 Turbo S 发布
腾讯混元新一代快思考模型 Turbo S 正式发布。
公告称,区别于 Deepseek R1、混元T1等需要“想一下再回答”的慢思考模型,混元 Turbo S 能够实现“秒回”,更快速输出答案,吐字速度提升一倍,首字时延降低44%。在知识、数理、创作等方面,混元 Turbo S 也有不错表现。
通过长短思维链融合,混元 Turbo S 在保持文科类问题快思考体验的同时,基于自研混元 T1 慢思考模型合成的长思维链数据,显著改进了理科推理能力,实现模型整体性能明显提升。
在业界通用的多个公开 Benchmark 上,混元 Turbo S 在知识、数学、推理等多个领域,展现出对标 DeepSeek V3、GPT 4o、Claude等一系列业界领先模型的效果表现。
架构方面,创新采用 Hybrid-Mamba-Transformer 融合模式,混元Turbo S有效降低了传统 Transformer 结构的计算复杂度,减少了KV-Cache缓存占用,实现训练和推理成本的下降。
新的融合模式突破了传统纯 Transformer 结构大模型面临的长文训练和推理成本高的难题。一方面,发挥了 Mamba 高效处理长序列的能力;另一方面,也保留 Transformer 擅于捕捉复杂上下文的优势,最终构建了显存与计算效率双优的混合架构。
这也是工业界首次成功将 Mamba 架构无损地应用在超大型MoE模型上。通过模型架构上的技术创新,混元 Turbo S 部署成本大幅下降,持续推动大模型应用门槛降低。
作为旗舰模型,混元 Turbo S 未来将成为腾讯混元系列衍生模型的核心基座,为推理、长文、代码等衍生模型提供基础能力。
基于 Turbo S,通过引入长思维链、检索增强和强化学习等技术,混元也推出了具备深度思考的推理模型 T1。
该模型此前已在腾讯元宝全量上线(腾讯混元T1模型面向所有用户开放),用户可以选择Deepseek R1 或腾讯混元T1模型进行回答。腾讯混元T1模型正式版也将很快上线,对外提供 API 接入等服务。
当前,开发者和企业用户已经可以在腾讯云上通过 API 调用腾讯混元 Turbo S ,即日起一周内免费试用。(腾讯混元turbos模型API免费试用申请: https://cloud.tencent.com/apply/p/i2zophus2x8)
定价上,Turbo S 输入价格为0.8元/百万tokens,输出价格为2元/百万tokens,相比前代混元 Turbo 模型价格下降数倍。腾讯元宝即将逐步灰度上线混元 Turbo S,用户在元宝内选择“Hunyuan” 模型并关闭深度思考即可体验使用。

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
🔥 Noear Solon v3.1.0-RC 发布。快如闪电!也智能非凡!
述 一直以来,Solon “快如闪电”。现在 Solon 也将 “智能非凡”(solon-ai,新特性新征程) Hello AI: System.out.println(chatModel.prompt("hello").call().getMessage()); Solon 框架! Solon 是新一代,Java 企业级应用开发框架。是杭州无耳科技有限公司(简称:Noear)的 “根级” 开源项目。从零开始构建(No Java-EE),有灵活的接口规范与开放生态。采用对商用友好的 Apache 2.0 开源协议。 追求: 更快、更小、更简单 提倡: 克制、高效、开放、生态 项目仓库9个,模块200个左右,源码 16万行 左右,累计 1.5万次 代码提交,最近半年 1200万次 maven 下载。 还有透明可预期的《版本发布与维护计划》 还有“【社区交流】”和“【商业服务】”双重技术支持 有什么特点(相对传统方案)? 特点 描述 更高的计算性价比 并发高 300%;内存省 50% 更快的开发效率 代码少;入门快;启动快 10 倍(调试快) 更好的生产与部署体验 打包小 90% 更...
- 下一篇
字节跳动开源 AIBrix:专为 vLLM 打造的可扩展、高性价比控制面
vLLM 日前宣布了由字节跳动开发的 AIBrix 大模型推理系统正式开源,为 vLLM 推理引擎提供可扩展且高性价比的控制面。 AIBrix 作为一个开源项目,旨在为构建可扩展的推理基础设施提供核心组件。它提供了一套云原生解决方案,专注于优化大语言模型(LLM)推理的部署、管理和扩展能力,并针对企业级需求进行了深度适配。 首版 AIBrix 聚焦以下核心功能: 高密度 LoRA 管理:简化对轻量级的、低秩模型适配的支持; LLM 网关和路由:高效管理和分配多个模型和副本的流量; 针对 LLM 应用的自动扩展器:根据实时需求动态调整推理资源; 统一 AI 运行时:多功能 sidecar 容器,支持指标标准化、模型下载和管理; 分布式推理:可扩展架构,支持多节点大规模推理负载; 分布式 KV 缓存:支持高容量、跨引擎的 KV 重用; 高性价比异构资源调度:支持混合 GPU 推理,在保障 SLO 的前提下降低成本; GPU 硬件故障检测:主动检测 GPU 硬件异常。 AIBrix 的愿景与行业合作 AIBrix 基于“系统与推理引擎协同设计”的理念,核心目标是以云原生方式在 Kuberne...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- CentOS7设置SWAP分区,小内存服务器的救世主
- Docker安装Oracle12C,快速搭建Oracle学习环境
- Docker快速安装Oracle11G,搭建oracle11g学习环境
- CentOS7,8上快速安装Gitea,搭建Git服务器
- SpringBoot2全家桶,快速入门学习开发网站教程
- CentOS7编译安装Gcc9.2.0,解决mysql等软件编译问题
- Windows10,CentOS7,CentOS8安装MongoDB4.0.16
- 2048小游戏-低调大师作品
- Docker使用Oracle官方镜像安装(12C,18C,19C)
- Jdk安装(Linux,MacOS,Windows),包含三大操作系统的最全安装