Meta 提出“Active Reading”框架,让大模型像人一样“精读”
Meta FAIR 与伯克利今日联合发布最新研究——Active Reading 框架,首次把“主动学习”概念搬进大模型训练流程,让模型以自我生成的学习策略研读指定材料,从而在大规模场景下可靠地吸收知识。
简单来说,模型拿到一篇文档后,会先自己设计“学习策略”(如摘要、联想、自测题等),再用这些策略生成大量高质量训练数据,最终把知识“吃干榨尽”。
https://www.arxiv.org/abs/2508.09494
实测成绩亮眼
- 金融垂类基准 FinanceBench:准确率从 16% 飙到 26%,相对提升 160%。
- 长尾知识基准 SimpleQA:准确率由 16% 暴涨至 66%,相对提升 312%。
- 用框架合成的 1 T tokens 训练出 8B 模型 Meta WikiExpert,事实问答表现超越 405B 的 Llama 3.1 与 236B 的 DeepSeekV2。
研究亮点
- 全流程自动化:无需人工设计问答模板。
- 数据多样性:一次文档可衍生释义、类比、填空、多轮 QA 等多种形式。
- 可扩展:已验证在预训练阶段直接放大到万亿 token 规模。
下一步,团队计划把 Active Reading 与检索增强(RAG)结合,探索“边读边查”的新范式。论文已上线 arXiv,代码与数据即将开源。
