Xinference 最新版本 v1.5.1 发布!🌟文生视频模型大升级,vLLM 功能增强!
Xorbits Inference(Xinference)是一个 性能强大且功能全面的 分布式 推理框架。可用于大语言模型(LLM),语音识别模型,多模态模型等各种模型的推理。通过 Xorbits Inference,你可以轻松地 一键部署你自己的模型或内置的前沿开源模型 - https://github.com/xorbitsai/inference。无论你是研究者,开发者,或是数据科学家,都可以通过 Xorbits Inference 与最前沿的 AI 模型,发掘更多可能。 Xinference 的功能和亮点有:
-
- 🌟 模型推理,轻而易举:大语言模型,语音识别模型,多模态模型的部署流程被大大简化。一个命令即可完成模型的部署工作。
-
- ⚡️ 前沿模型,应有尽有:框架内置众多中英文的前沿大语言模型,包括 baichuan,chatglm2 等,一键即可体验!内置模型列表还在快速更新中!
-
- 🖥 异构硬件,快如闪电:通过 ggml,同时使用你的 GPU 与 CPU 进行推理,降低延迟,提高吞吐!
-
- ⚙️ 接口调用,灵活多样:提供多种使用模型的接口,包括 OpenAI 兼容的 RESTful API(包括 Function Calling),RPC,命令行,web UI 等等。方便模型的管理与交互。
-
- 🌐 集群计算,分布协同:支持分布式部署,通过内置的资源调度器,让不同大小的模型按需调度到不同机器,充分使用集群资源。
-
- 🔌 开放生态,无缝对接:与流行的三方库无缝对接,包括 LangChain, LlamaIndex, Dify,以及 Chatbox。
🎉 Xinference v1.5.1 发布!
🆕 重点亮点
- 🧠 支持 Qwen3 / Qwen3-MOE 大模型家族 支持 Qwen3 正式版,以及 Qwen3-MOE 多专家模型!
- 🎬 支持 Wan 2.1 文生视频模型 更强的文生视频能力,为 AI 视频生成打开新可能!
- ⚙️ vLLM 支持 GGUFv2 格式 兼容范围更广,模型加载更灵活!
🧪 社区版
📦 更新指南
- 📥 pip:pip install 'xinference==1.5.1'
- 🐳 Docker:拉取最新版本即可,也可以直接在镜像内用 pip 更新。
📝 更新日志
🆕 新模型支持
- 🧠 Qwen3 / Qwen3-MOE
- 🎬 Wan 2.1(文生视频)
- 🖼️ Ovis2(多模态视觉模型)
⚙️ 功能增强
- 🧠 UI 支持高亮输入框内容,优化用户体验
- 📊 UI 显示 model_ability,更直观了解模型能力
- 🧩 vLLM 引擎支持 GGUFv2 模型格式
- ⚙️ GLM4-0414 模型支持 MLX 和 GGUF 格式
- 🔧 支持为 SSE 设置 Ping 的时间,防止意外的 :ping: chunk 导致客户端错误
- 🧠 PyTorch 格式模型不再内置 4-bit / 8-bit 量化选项,改为支持更灵活的 bitsandbytes 动态量化,未来将扩展支持更多格式
- 🧩 所有引擎支持 chat_template_kwargs 参数
- 🔊 音频模型能力统一展示
🧹 模型清理
- 🗑️ 清理了一批已过时的模型,保持模型库高质量、常用可用
🐛 问题修复
- 💬 修复 sgLang 聊天失败的问题
- 🛠️ 修复 UI 在未安装引擎时不展示可选项的问题
- 🧹 修复模型加载失败时未能清理资源的问题
📚 文档更新
- 🧾 troubleshooting.rst 中新增关于 numpy 导致启动报错的排查说明
🏢 企业版
- 🔐 部署支持限制端口范围 / 使用单端口,可部署于更严格的防火墙与隔离网络中
- 🔀 PD 分离支持不同个数的 P 和 D 节点,资源利用更灵活
我们感谢每一位参与的社区伙伴对 Xinference 的帮助和支持,也欢迎更多使用者和开发者参与体验和使用 Xinference。
欢迎您在 https://github.com/xorbitsai/inference 给我们一个 星标,这样你就可以在 GitHub 上及时收到每个新版本的通知。

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
ulthon_admin 发布新版,增加表格自动生成 tab,增加地图 ip 定位,实现重复提交拦截
重点更新说明 表格自动生成tab切换 在设置表格配置时,只需要设置参数tab:true即可实现tab页。 ...{ field: 'upload_type', minWidth: 80, title: '存储位置', search: 'select', selectList: { 'local': '本地', 'alioss': '阿里云', 'qnoss': '七牛云', ',txcos': '腾讯云' }, tab: true },... 增加地图ip定位 当无法通过浏览器正常定位时,会通过ip定位城市。 正常时效果: 实现重复提交拦截 原本框架已经通过全局loading实现了通过鼠标重复拦截。但经过测试通过回车键仍然能够重复提交,新版中已经对此行为实现了拦截,保证一次表单只提交一次。 表格搜索表现进一步完善 框架支持通过url参数设置列表查询参数,但是当用户重新搜索或重置后会丢失,新版已修复。 v2.0.118 发布说明 发布日期: 2025-05-07 本次发布包含了从 v2.0.117 到 v2.0.118 的所有更新。 新功能 [2025-04-23] 列表新增自动生成...
- 下一篇
源雀 SCRM 开源 V20250507 版,AI 企微客服|RAG 知识中枢+自训练闭环
在数字化服务时代,企业亟需更高效、更智能的客户交互解决方案。源雀SCRM免费开源「AI企微智能客服系统」,基于RAG知识库与企微深度集成,实现从知识管理到智能应答的全链路闭环,助力企业降本增效,提升客户满意度。 1.AI知识库管理:企业智慧的“最强大脑” 多格式解析:支持PDF、Word、Excel等文档智能解析,一键构建企业专属知识库 精准检索:基于RAG+Milvus向量引擎,实现毫秒级语义匹配,告别关键词搜索时代 动态优化:知识库持续更新,确保应答内容与业务发展同步进化 2.AI客服管理:让每个问题都有“最优解” 智能应答:对接企业微信,客户问题实时匹配知识库,自动生成专业回复 无缝转接:未知问题自动分配人工客服,并标记知识缺口,驱动后续优化 3.服务记录:数据驱动的服务升级【目前仅支持会话内容记录】 全链路追踪:自动存档客户对话,便于后续拓展生成服务报告与知识库优化建议 智能分析:后续拓展通过NLP识别高频问题、客户情绪,辅助业务决策
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- CentOS7编译安装Gcc9.2.0,解决mysql等软件编译问题
- Docker使用Oracle官方镜像安装(12C,18C,19C)
- CentOS7设置SWAP分区,小内存服务器的救世主
- SpringBoot2整合Thymeleaf,官方推荐html解决方案
- 设置Eclipse缩进为4个空格,增强代码规范
- CentOS7安装Docker,走上虚拟化容器引擎之路
- Docker快速安装Oracle11G,搭建oracle11g学习环境
- Hadoop3单机部署,实现最简伪集群
- Linux系统CentOS6、CentOS7手动修改IP地址
- CentOS7编译安装Cmake3.16.3,解决mysql等软件编译问题