您现在的位置是:首页 > 文章详情

360 开源视觉语言对齐模型 FG-CLIP2

日期:2025-11-03点击:3

360 集团近日开源视觉语言对齐模型 FG-CLIP2。这款模型在涵盖长短文本图文检索、目标检测等在内的29项权威公开基准测试中,全面超越了科技巨头Google的SigLIP 2与Meta的MetaCLIP2。

根据介绍,FG-CLIP2 在模型核心上实现了三大根本创新:第一,层次化对齐架构,让模型能像人眼一样,同时把握宏观场景与微观细节,实现从“看得见”到“看得清”的跨越。

第二,动态注意力机制,使模型可以智能聚焦于图像关键区域,以最小算力代价换取精准的细节捕捉能力。第三,双语协同优化策略,从底层解决了中英文理解不平衡的难题,实现了真正的双语原生支持。

FG-CLIP2依托于自研的超大规模高质量数据集FineHARD。该数据集不仅包含详尽的全局描述和千万级的局部区域标注,还创新性地引入了由大模型生成的“难负样本”。

原文链接:https://www.oschina.net/news/381360
关注公众号

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。

持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。

转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。

文章评论

共有0条评论来说两句吧...

文章二维码

扫描即可查看该文章

点击排行

推荐阅读

最新文章