OpenDataLab 发布文档解析视觉-语言模型 MinerU2.5 技术报告
上海人工智能实验室 OpenDataLab 团队近日正式发布了MinerU2.5技术报告,包含模型架构、训练策略、数据工程和评测结果。
MinerU2.5是一款12亿参数、面向高分辨率文档解析的解耦视觉-语言模型。官方的Demo也已同步开放,支持在线体验。
MinerU2.5采用两阶段策略:首先对降采样后的图像进行全局版面分析,然后对原生分辨率的裁剪区域进行文本、公式、表格的细粒度识别。该方案在OmniDocBench等多个基准测试上取得了SOTA(State-of-the-Art)精度,同时保持了较低的计算开销。
该模型能够完整保留页眉、页脚、页码等非正文元素,并细化了列表、参考文献、代码块等标签。它还可以解析复杂的长公式以及中英混排的方程,并支持旋转、无边框、部分边框等复杂表格的识别。
开源项目:https://github.com/opendatalab/MinerU
开源模型:https://huggingface.co/opendatalab/MinerU2.5-2509-1.2B
在线使用:https://mineru.net


