您现在的位置是:首页 > 文章详情

Omni-Infer v0.2.0 已经发布,超大规模 MoE 模型推理加速技术

日期:2025-08-06点击:18

Omni-Infer v0.2.0 已经发布,超大规模 MoE 模型推理加速技术

此版本更新内容包括:

v0.2.0

核心特性

  • 支持vllm 0.8.3 release

其他优化

  • 基于18P8-1D144@A3,Deepseek R1单卡Decode性能达到1920 TPS,TPOT<50ms

支持模型列表

模型 部署形态
DeepSeek-R1 PD分离
Qwen2.5系列 混布(TP>=1 DP=1)

详情查看:https://gitee.com/omniai/omniinfer/releases/v0.2.0

原文链接:https://www.oschina.net/news/364520/omni-infer-0-2-0-released
关注公众号

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。

持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。

转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。

文章评论

共有0条评论来说两句吧...

文章二维码

扫描即可查看该文章

点击排行

推荐阅读

最新文章