Xorbits Inference(Xinference)是一个 性能强大且功能全面的 分布式 推理框架。可用于大语言模型(LLM),语音识别模型,多模态模型等各种模型的推理。通过 Xorbits Inference,你可以轻松地 一键部署你自己的模型或内置的前沿开源模型 - https://github.com/xorbitsai/inference。无论你是研究者,开发者,或是数据科学家,都可以通过 Xorbits Inference 与最前沿的 AI 模型,发掘更多可能。
Xinference 的功能和亮点有:
- 🌟 模型推理,轻而易举:大语言模型,语音识别模型,多模态模型的部署流程被大大简化。一个命令即可完成模型的部署工作。
- ⚡ 前沿模型,应有尽有:框架内置众多中英文的前沿大语言模型,包括 baichuan,chatglm2 等,一键即可体验!内置模型列表还在快速更新中!
- 🖥 异构硬件,快如闪电:通过 ggml,同时使用你的 GPU 与 CPU 进行推理,降低延迟,提高吞吐!
- ⚙ 接口调用,灵活多样:提供多种使用模型的接口,包括 OpenAI 兼容的 RESTful API(包括 Function Calling),RPC,命令行,web UI 等等。方便模型的管理与交互。
- 🌐 集群计算,分布协同:支持分布式部署,通过内置的资源调度器,让不同大小的模型按需调度到不同机器,充分使用集群资源。
- 🔌 开放生态,无缝对接:与流行的三方库无缝对接,包括 LangChain, LlamaIndex, Dify,以及 Chatbox。
———————————————————————— ————————————————————————
🚀 Xinference v2.0.0 更新日志
🎉 Xinference 2.0 正式发布 v2.0 是一次重要的里程碑版本,在运行隔离、底座能力和模型生态上迈出了关键一步。
✅ 本次亮点
- 🧩 模型虚拟环境(Virtualenv)默认开启
- 从 v2.0 开始,模型虚拟环境默认开启。
- 每个模型都可以运行在 独立的 Python 依赖空间 中,支持为不同模型配置各自的依赖与推理引擎,有效避免因依赖版本冲突导致的模型启动失败问题,大幅提升系统稳定性与可维护性。
- 🚀 CUDA 镜像基线统一升级至 12.9
- v2.0 起,官方 CUDA 镜像最低版本统一为 CUDA 12.9,历史版本(如 12.4 等)已移除。
- 更干净的底座环境,为新一代推理引擎与高性能特性提供可靠基础。
- 🧠 Qwen3-VL 多模态向量与重排模型全量支持
- 新增并完整支持:
- Qwen3-VL-Embedding(2B / 8B)
- Qwen3-VL-Reranker(2B / 8B)
- 覆盖多模态向量化、检索与重排序等关键能力。
🌐 社区版更新
📦 安装方式
- pip 安装:pip install ‘xinference==2.0.0’
- Docker:拉取最新版镜像,或在容器中使用 pip 更新
🆕 新模型支持
- Qwen3-VL-Embedding-2B / 8B
- Qwen3-VL-Reranker-2B / 8B
- MinerU2.5-2509-1.2B
- Z-Image
- GLM-4.6
✨ 新特性
- 模型虚拟环境默认开启,支持为模型配置独立依赖与引擎
- 支持 chat_template.jinja,模型 Prompt 模板更灵活
- 支持虚拟环境按引擎配置
- 新增多模态视频 GGUF 缓存管理
- 新增自定义 LLM 模型配置 JSON 解析能力
🛠 功能增强
- 模型配置支持声明缓存策略,减少不必要下载
- 模型 JSON 持续更新,覆盖 LLM / Image / Video / Embedding / Rerank
🐞 Bug 修复
- 修复 MUSA / Xavier 等平台兼容性问题
- 修复多模态模型下载与缓存异常
- 修复新版本 vLLM 无法启动 embedding 模型的问题
- 修复并发下载场景下可能卡死的问题
📚 文档更新
- 新增 Xinference 2.0 使用文档
- 补充虚拟环境常见 CUDA / NCCL / cuDNN 问题解决方案
- 更新历史版本发布说明
🏢 企业版更新
- 🔐 页面级权限控制能力上线
- 支持更细粒度的访问与操作权限控制,满足企业级多角色、多团队使用场景。
- 🎨 全新、更现代化的 UI 设计
- 企业版界面全面升级,整体风格更现代,交互更清晰,显著提升大规模模型管理与运维体验。
参考
- 中文:https://xinference.cn/release_notes/v2.0.0.html
- 英文:https://xinference.io/release_notes/v2.0.0.html
———————————————————————— ————————————————————————
我们感谢每一位参与的社区伙伴对 Xinference 的帮助和支持,也欢迎更多使用者和开发者参与体验和使用 Xinference。
欢迎您在 https://github.com/xorbitsai/inference 给我们一个 星标,这样你就可以在 GitHub 上及时收到每个新版本的通知。