AI 推理运行时 Windows ML 正式 GA
微软宣布 Windows ML 现已面向生产环境正式 GA,Windows ML 最早在 Build 2025 大会上推出,是内置的 AI 推理运行时,针对设备上的模型推理进行了优化,并简化了模型依赖管理,支持 CPU、GPU 和 NPU。
Windows ML 让 C#、C++ 和 Python 开发者能够通过 ONNX 运行时在本地 Windows 电脑上运行 ONNX AI 模型,并为不同的硬件(CPU、GPU、NPU)自动执行提供程序管理。 ONNX 运行时可用于 PyTorch、Tensorflow/Keras、TFLite、scikit-learn 和其他框架中的模型。
Windows ML 具备以下主要优势:
-
Windows ML 架构 API 支持多种硬件架构,开发者可利用设备已安装的执行提供程序或动态下载相关组件,无需为不同设备反复打包应用。同时,开发者还可预编译模型(AOT),为终端用户提供流畅体验。
-
Windows ML 能根据 PC 硬件自动下载所需执行组件,开发者无需在应用内捆绑运行时或执行程序。
-
Windows ML 持续兼容并适配硬件升级,开发者不必为未来设备的变化担忧。
-
开发者可根据需要指定设备策略,对低功耗(NPU)、高性能(GPU)进行优化或设置特定芯片用于模型运行。
微软强调,Windows ML 保持一致性与兼容性,支持硬件和软件的持续升级。开发者可在不同设备上指定策略,如低功耗模式优先使用 NPU,高性能模式调用 GPU,或精确指定运行模型所用的芯片,满足不同应用场景的性能需求。
