您现在的位置是:首页 > 文章详情

微软宣布 Copilot+ PC 支持本地运行 DeepSeek 模型

日期:2025-03-05点击:40

微软宣布 Copilot+ PC 正式支持本地运行 DeepSeek 模型。

据官方介绍,微软通过 Azure AI Foundry 接入 DeepSeek-R1 7B 和 14B 蒸馏模型,为 Copilot+ PC 提供本地运行 7B 和 14B 模型的能力。

目前,搭载骁龙 X 平台的 Copilot+ PC 将可以本地运行上述蒸馏模型,而搭载英特尔酷睿 Ultra 200V 和 AMD 锐龙的 Copilot+ PC 将在后续更新支持。

今年 1 月,微软曾通过引入 Azure Al Foundry 来让 Copilot+ PC 在本地运行 DeepSeek-R1 的 1.5B 蒸馏版 NPU 优化版模型。

微软表示,Copilot+ PC 中内置的 NPU 专为高效率运行 AI 模型而设计,其能确保 AI 计算的同时,对电池寿命、设备发热和资源调用的影响降到最小,而本次支持的两款 DeepSeek-R1 蒸馏模型均可在设备的 NPU 上运行。

比较遗憾的是,目前在 Copilot+ PC 本地运行上述模型速度较慢。据微软公布的数据显示,14B 模型的运行速度仅为 8token / 秒,而 1.5B 模型因体积较小,速度能接近 40token / 秒;微软也表示未来将持续优化模型性能。

目前,开发者可以通过 AI Toolkit VS Code 扩展在 Copilot+ PC 上下载和本地运行 DeepSeek 模型的 1.5B、7B 和 14B 版本。

原文链接:https://www.oschina.net/news/337057
关注公众号

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。

持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。

转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。

文章评论

共有0条评论来说两句吧...

文章二维码

扫描即可查看该文章

点击排行

推荐阅读

最新文章