微软宣布 Copilot+ PC 支持本地运行 DeepSeek 模型
微软宣布 Copilot+ PC 正式支持本地运行 DeepSeek 模型。 据官方介绍,微软通过 Azure AI Foundry 接入 DeepSeek-R1 7B 和 14B 蒸馏模型,为 Copilot+ PC 提供本地运行 7B 和 14B 模型的能力。 目前,搭载骁龙 X 平台的 Copilot+ PC 将可以本地运行上述蒸馏模型,而搭载英特尔酷睿 Ultra 200V 和 AMD 锐龙的 Copilot+ PC 将在后续更新支持。 今年 1 月,微软曾通过引入 Azure Al Foundry 来让 Copilot+ PC 在本地运行 DeepSeek-R1 的 1.5B 蒸馏版 NPU 优化版模型。 微软表示,Copilot+ PC 中内置的 NPU 专为高效率运行 AI 模型而设计,其能确保 AI 计算的同时,对电池寿命、设备发热和资源调用的影响降到最小,而本次支持的两款 DeepSeek-R1 蒸馏模型均可在设备的 NPU 上运行。 比较遗憾的是,目前在 Copilot+ PC 本地运行上述模型速度较慢。据微软公布的数据显示,14B 模型的运行速度仅为 8token...
