一键部署QwQ-32B推理模型,2种方式简单、快速体验
QwQ-32B推理模型正式发布并开源,凭借其卓越的性能和广泛的应用场景,迅速在全球范围内获得了极高的关注度。基于阿里云函数计算 FC提供算力,Serverless+ AI 云原生应用开发平台 CAP现已提供模型服务、应用模板两种部署方式辅助您部署QwQ 32B系列模型。您选择一键部署应用模板与模型进行对话或以API形式调用模型,接入AI应用中。欢迎您立即体验QwQ-32B。
QwQ-32B更小尺寸,性能比肩全球最强开源推理模型
QwQ-32B在一系列基准测试中进行了评估,包括数学推理、编程和通用能力。以下结果展示了QwQ-32B与其他领先模型的性能对比,包括 DeepSeek-R1-Distilled-Qwen-32B、DeepSeek-R1-Distilled-Llama-70B、OpenAI-o1-mini以及原始的DeepSeek-R1-671B。
在测试数学能力的AIME24评测集上,以及评估代码能力的LiveCodeBench中,千问QwQ-32B表现与DeepSeek-R1-671B相当,远胜于OpenAI-o1-mini及相同尺寸的R1蒸馏模型。在由Meta首席科学家杨立昆领衔的"最难LLMs评测榜" LiveBench、谷歌等提出的指令遵循能力IFEval评测集、由加州大学伯克利分校等提出的评估准确调用函数或工具方面的BFCL测试中,千问QwQ-32B的得分均超越了DeepSeek-R1-671B。
前置准备
1.首次使用云原生应用开发平台 CAP会自动跳转到访问控制快速授权页面,滚动到浏览器底部单击确认授权,等待授权结束后单击返回控制台。
2.本教程在函数计算中创建的GPU函数,函数运行使用的资源按照函数规格乘以执行时长进行计量,如果无请求调用,则只收取闲置预留模式下预置的快照费用,CAP中的极速模式通过预置实例快照实现毫秒级响应,其技术原理对应函数计算的闲置预留模式,适用于需要快速冷启动的场景。建议您领取函数计算的试用额度抵扣资源消耗,超出试用额度的部分将自动转为按量计费,更多计费详情,请参见计费概述。
方式一:应用模板部署
创建项目
进入CAP控制台单击基于模板创建开始创建。
部署模板
1.在搜索栏输入QWQ进行搜索,单击基于 Qwen-QwQ 推理模型构建AI聊天助手 ,进入模板详情页 ,单击立即部署。
2.选择地域,目前支持 北京、上海、杭州,单击部署项目,在项目资源预览对话框中,您可以看到相关的计费项,详情请见计费涉及的产品。单击确认部署,部署过程大约持续 10 分钟左右,状态显示已部署表示部署成功。
说明
- 选择地域时,一般是就近选择地域信息,如果已经开启了NAS文件系统,选择手动配置模型存储时,请选择和文件系统相同的地域。
- 如果您在测试调用的过程中遇到部署异常或模型拉取失败,可能是当前地域的GPU显卡资源不足,建议您更换地域进行重试。
3.验证应用 部署完毕后,点击 Open-WebUI 服务,在访问地址 内找到公网访问单击访问。在OpenWebUI界面体验QwQ模型进行对话。
方式二:模型服务部署
使用API形式进行模型调用,接入线上业务应用。
创建空白项目
进入CAP控制台单击创建空白项目开始创建,并为项目命名。
选择模型服务
部署模型服务
1.选择模型QwQ-32B-GGUF,目前仅支持杭州地域。
2.单击资源配置,QwQ-32B-GGUF推荐使用 Ada 系列,可直接使用默认配置。您可以根据业务诉求填写需要的卡型及规格信息。
3.单击预览并部署 ,在服务资源预览 对话框中,您可以看到相关的计费项,详情请见计费涉及的产品。单击确认部署,该阶段需下载模型,预计等待10~30分钟即可完成。
验证模型服务
单击调试,即可测试和验证相关模型调用。
在本地命令行窗口中验证模型调用。
第三方平台 API 调用
您可以选择在Chatbox等其他第三方平台中验证和应用模型调用,以下以Chatbox为例。
删除项目
您可以使用以下步骤删除应用,以降低产生的费用。
1.进入项目详情 > 点击删除,会进入到删除确认对话框。
2.您可以看到要删除的资源。默认情况下,云原生应用开发平台 CAP会删除项目下的所有服务。如果您希望保留资源,可以取消勾选 指定的服务,删除项目时只会删除勾选的服务。
勾选我已知晓:删除该项目及选中的服务将立刻中断其所服务的线上业务,并且不可恢复,同时将彻底删除其所依赖的云产品资源,然后单击确定删除。
更多内容关注 Serverless 微信公众号(ID:serverlessdevs),汇集 Serverless 技术最全内容,定期举办 Serverless 活动、直播,用户最佳实践。

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
【送书活动】金融数据库转型实战宝典
赠书啦,欢迎大家在评论区聊聊「数据库转型那些事」,畅所欲言 我们将在评论区随机选出 3 名 OSCer,赠送《金融数据库转型实战:基于OceanBase》一本 活动截止时间:3 月 17 日 18:00 目前,金融数据库的数字化转型方兴未艾。 以OceanBase为代表的新型分布式数据库凭借其高可用性、水平扩展能力和成本优势,正在成为金融数据库数字化转型的重要解决方案。 然而,相较于Oracle等成熟的商业数据库,市场上关于OceanBase的应用实践和深度使用的图书较少。 许多金融机构在开展数据库数字化转型工作时往往感到无从下手,缺乏有效的指导。 近3年来,《金融数据库转型实战:基于OceanBase》一书的主笔人有幸参与到中国太平洋保险集团(简称“太保”)的数据库数字化转型工作中,在这个过程中,其所在的团队经历了无数个日夜的努力和奋斗,在公司领导及数智研究院院长的悉心指导下,与数据库团队、研发侧各项目组以及厂商专家紧密合作,共同面对困难和挑战。 通过不懈的努力,最终实现了大量复杂系统的成功上线,并保证了其稳定运行。这一成果不仅是一个重要里程碑,也为整个金融行业树立了标杆。 鉴于此,...
- 下一篇
基于 Megatron 的多模态大模型训练加速技术解析
作者:胡凯文,李鹏,黄俊 单位:阿里云智能集团人工智能平台PAI算法团队 引言 多模态大模型是近期业界关注的热点,OpenAI 的 GPT4O 以及谷歌 Gemini 等多模态大模型的出现让人机交互变得更加简单和自然。这种模型在多种下游任务上表现优异,比如图文检索、视觉问答等。通过结合语言理解和视觉感知能力,它能为用户提供更加丰富和自然的人机交互体验。Pai-Megatron-Patch 是一款由阿里云人工智能平台PAI 研发的围绕英伟达 Megatron 的大模型训练配套工具,旨在帮助开发者快速上手大模型,打通大模型相关的高效分布式训练、有监督指令微调、下游任务评估等大模型开发链路。在 Megatron 的基础之上,Pai-Megatron-Patch 及时追踪社区最新需求,搭建了包括 LLaMA3、Qwen2 等在内的多种热门大语言模型,并在此基础上持续拓展新特性,如支持 Optimizer Offloading 功能的 Distributed Optimizer, 可与 Transformer Engine、MoE 以及流水并行等模块协同使用,以适应更多场景需求。Pai-Meg...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Springboot2将连接池hikari替换为druid,体验最强大的数据库连接池
- CentOS8安装Docker,最新的服务器搭配容器使用
- MySQL8.0.19开启GTID主从同步CentOS8
- CentOS7安装Docker,走上虚拟化容器引擎之路
- SpringBoot2全家桶,快速入门学习开发网站教程
- CentOS8编译安装MySQL8.0.19
- CentOS7,CentOS8安装Elasticsearch6.8.6
- SpringBoot2配置默认Tomcat设置,开启更多高级功能
- SpringBoot2整合Thymeleaf,官方推荐html解决方案
- Windows10,CentOS7,CentOS8安装Nodejs环境