商汤联合南洋理工开源多模态模型架构 NEO
商汤科技与南洋理工大学S-Lab联合发布并开源全新多模态模型架构NEO,通过底层架构创新实现视觉与语言的深层统一,在性能、效率和通用性上取得全面突破。 NEO最显著的突破在于其极高的数据效率——仅需3.9亿图像文本示例,相当于业界同等性能模型1/10的数据量,便能开发出顶尖的视觉感知能力。无需依赖海量数据及额外视觉编码器,NEO凭借简洁架构在多项视觉理解任务中追平Qwen2-VL、InternVL3等顶级模块化旗舰模型。 在MMMU、MMB、MMStar、SEED-I、POPE等多项公开权威评测中,NEO均斩获高分,综合性能优于其他原生VLM,真正实现了原生架构"精度无损"。 当前业内主流多模态模型大多遵循"视觉编码器+投影器+语言模型"的模块化范式。这种基于大语言模型的扩展方式虽然实现了图像输入兼容,但本质上仍以语言为中心,图像与语言的融合仅停留在数据层面。这种"拼凑"式设计不仅学习效率低下,更限制了模型在复杂多模态场景下的处理能力,尤其是涉及图像细节捕捉或复杂空间结构理解的任务。 NEO则通过在注意力机制、位置编码和语义映射三个关键维度的底层创新,让模型天生具备统一处理视觉与语言的...

