Qwen3 正式发布!模力方舟首发上线体验,昇腾算力全面适配
2025年4月29日,Qwen家族新成员Qwen3正式发布,包含多种模型版本。
1. 模型类型与参数
- MoE 模型:有Qwen3-235B-A22B(总参数2350亿,激活参数220亿)和Qwen3-30B-A3B(总参数300亿,激活参数30亿)。
- 密集模型:包括Qwen3-32B、14B、8B、4B、1.7B、0.6B,均为Apache 2.0开源协议。
2. 上下文长度:密集模型中,0.6B、1.7B、4B为32K,8B及以上为128K;MoE模型均为128K。
模力方舟上的昇腾算力已为您准备好首批0.6B
、8B
、30B
三款模型,其中 30B 为 Mixture-of-Experts(MoE)模型,覆盖从轻量部署到高性能推理的多元应用需求,助力开发者轻松拥抱新一代大模型能力。
在线体验:https://ai.gitee.com/serverless-api?model=Qwen3-30B-A3B
全面升级的 Qwen3 模型性能表现
1. 基准测试结果
- Qwen3-235B-A22B:在ArenaHard(95.6)、AIME'24(85.7)、LiveCodeBench v5(70.7)等测试中,优于DeepSeek-R1、o1、Grok-3等模型,仅在AIME'25(81.5)略低于Gemini-2.5-Pro(86.7)。
- Qwen3-30B-A3B:在ArenaHard(91.0)、AIME'24(80.4)等测试中,超越QwQ-32B(激活参数为其10倍)。
- Qwen3-4B:性能可与Qwen2.5-72B-Instruct媲美,如在ArenaHard中为76.6,Qwen2.5-72B-Instruct为81.2。
2. 优势领域:在编码(如CodeForces Elo Rating)、数学(AIME系列)、多语言(MultilF 8 Languages)任务中表现突出。
Qwen3 关键特性
1. 混合思维模式
- 思考模式:适合复杂问题,支持逐步推理,性能随计算预算(token量)提升而线性增长。
- 非思考模式:响应快速,适用于简单任务,可通过参数 enable_thinking 或指令 /no_think / /think 动态切换。
2. 多语言支持:覆盖119种语言和方言,包括印欧语系、汉藏语系、阿拉伯语、日语、韩语等。
3. 增强的代理能力:优化了编码和工具调用能力,推荐搭配Qwen-Agent使用,支持MCP协议和自定义工具集成。
Qwen3 训练与架构
1. 预训练数据:使用36万亿token,是Qwen2.5的2倍,涵盖网页、PDF文档(通过Qwen2.5-VL提取文本),并通过Qwen2.5-Math/Code生成数学和代码合成数据。
2. 训练阶段
-
S1:基于30万亿token、4K上下文,构建基础语言能力。
-
S2:增加STEM、编码等知识密集型数据,新增5万亿token训练。
-
S3:使用长上下文数据,将上下文扩展至32K(最终支持128K)。
3. 架构优化:MoE模型通过稀疏激活降低计算成本,密集模型参数效率更高,如Qwen3-4B性能相当于Qwen2.5-72B。
官方博客:https://qwenlm.github.io/blog/qwen3/
昇腾加速,释放 MoE 潜能
此次在模力方舟首发的0.6B
、8B
、30B
三款Qwen3
模型,均基于细粒度专家调度机制,具备更优的推理效率与更低的推理成本。支持最大 256K 上下文长度,统一推理与非推理模式,灵活应对长文理解、多轮对话、复杂推理与智能 Agent 开发等高阶任务。
为释放Qwen3
的强大性能,模力方舟基于昇腾最新发布的vLLM Ascend v0.8.4rc2
进行适配。新版vLLM Ascend
率先实现Ascend W8A8
量化、DeepSeek
并行机制适配,并启用PyTorch 2.5.1
及Torch.compile
图模式特性,在推理性能、兼容性与开发体验上全面升级,为大模型部署提供了更高效、更专业的基础能力。
在线体验 Qwen3
在线体验 Qwen3 的强大实力:
https://ai.gitee.com/serverless-api?model=Qwen3-30B-A3B
https://ai.gitee.com/serverless-api
模力方舟的 AI 模型广场提供了行业大模型、文本生成、视觉模型、语音多模态、图像生成与处理、3D生成、文档处理/OCR、视频生成、自动语音识别、语音合成、向量化和重排、代码生成、风控识别十三大类共 81 款各领域的顶尖开源模型的在线体验和 API 使用。通过购买模型资源包,即可通过极低的价格即可尽享众多主流模型。

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
阿里发布 Qwen3 模型:思考与速度兼具的开源新标杆
阿里巴巴旗下通义千问团队于2025年4月29日正式发布了最新一代大语言模型Qwen3系列,标志着开源人工智能领域的又一重大突破。此次发布包括多款模型,从0.6B参数的轻量级版本到235B总参数的旗舰MoE模型不等,全部采用Apache 2.0许可证开源。 核心亮点 Qwen3系列最大的创新在于引入「思考模式」与「非思考模式」的混合设计。在思考模式下,模型会进行深入的逐步推理;而非思考模式则提供快速响应。这种设计允许用户根据实际需求灵活调整「思考预算」,在复杂任务上投入更多计算资源,简单任务则快速完成。 旗舰模型Qwen3-235B-A22B拥有2350亿总参数,但仅激活约220亿参数,在代码、数学和通用能力上与DeepSeek-R1、OpenAI的o1、o3-mini、Grok-3和Gemini-2.5-Pro等顶级模型相比表现极具竞争力。 更令人惊讶的是体量更小的Qwen3-30B-A3B模型,它仅激活30亿参数(是QwQ-32B的10%),却能提供更强的性能。甚至4B参数的小模型也能匹敌此前Qwen2.5-72B-Instruct的表现水平。 技术特色 Qwen3模型支持119种语...
- 下一篇
Dora-rs:下一代机器人开发框架
在AI与机器人技术深度融合的今天,传统机器人框架的性能瓶颈和开发效率问题日益凸显。dora-rs(Dataflow Oriented Robotics Architecture)应运而生,成为一款基于Rust语言的高性能、现代化机器人框架。其核心目标是通过数据流驱动的设计范式,解决机器人开发中低效通信、跨语言集成困难等问题,并在性能上实现对ROS/ROS2等传统框架的超越。 一、技术架构:数据流驱动与模块化设计 1.数据流模型 dora-rs采用有向图数据流范式,将机器人应用建模为节点(Node)和边(Edge)组成的网络。节点代表独立任务(如传感器处理、运动控制),边定义数据流向,支持动态组合与分布式部署。这种设计使得系统模块化程度高,开发者可通过YAML配置文件快速调整数据流逻辑,无需修改底层代码。 2.核心组件 节点(Node):独立进程,通过共享内存或TCP通信,支持Python、Rust、C/C++等多种语言实现。 算子(Operators):轻量级协作组件,由运行时调度,支持优先级任务和本地截止时间管理。 协调器(Coordinator):负责解析数据流配置、部署节点,并监...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- CentOS8安装Docker,最新的服务器搭配容器使用
- MySQL8.0.19开启GTID主从同步CentOS8
- SpringBoot2整合MyBatis,连接MySql数据库做增删改查操作
- CentOS7编译安装Gcc9.2.0,解决mysql等软件编译问题
- Docker使用Oracle官方镜像安装(12C,18C,19C)
- 设置Eclipse缩进为4个空格,增强代码规范
- SpringBoot2全家桶,快速入门学习开发网站教程
- CentOS7,CentOS8安装Elasticsearch6.8.6
- Windows10,CentOS7,CentOS8安装MongoDB4.0.16
- CentOS7设置SWAP分区,小内存服务器的救世主