OpenBMB 发布端侧多模态模型 MiniCPM-V 4.0
OpenBMB 发布了 MiniCPM-V 系列的最新高效模型 MiniCPM-V 4.0。该模型基于 SigLIP2-400M 和 MiniCPM4-3B 构建,总参数量为 4.1B,专为设备端部署而设计。
MiniCPM-V 4.0 不仅继承了 MiniCPM-V 2.6 在单图、多图和视频理解方面的强大能力,还大幅提升了运行效率。
MiniCPM-V 4.0 的主要亮点包括:
- 领先的视觉能力
仅凭 41 亿参数,MiniCPM-V 4.0 在 OpenCompass(涵盖 8 个主流视觉基准的综合评测)中取得了 69.0 的平均得分,超越 GPT-4.1-mini-20250414、MiniCPM-V 2.6(65.2,参数量 81 亿)和 Qwen2.5-VL-3B-Instruct(64.5,参数量 38 亿)。
此外,它在多图理解与视频理解任务中也表现出色。
- 卓越的运行效率
MiniCPM-V 4.0 专为端侧部署设计,可在移动设备上流畅运行。例如,在 iPhone 16 Pro Max 上,其首 token 延迟 小于 2 秒,解码速度 超过 17 token/s,并且无明显发热问题。在并发请求场景下也展现出优秀的吞吐能力。
- 简单易用
MiniCPM-V 4.0 支持多种主流部署方式,包括:llama.cpp、Ollama、vLLM、SGLang、LLaMA-Factory 以及本地 Web Demo 等。
模型地址:https://huggingface.co/openbmb/MiniCPM-V-4
