Meta 提出“Active Reading”框架,让大模型像人一样“精读”
Meta FAIR 与伯克利今日联合发布最新研究——Active Reading 框架,首次把“主动学习”概念搬进大模型训练流程,让模型以自我生成的学习策略研读指定材料,从而在大规模场景下可靠地吸收知识。 简单来说,模型拿到一篇文档后,会先自己设计“学习策略”(如摘要、联想、自测题等),再用这些策略生成大量高质量训练数据,最终把知识“吃干榨尽”。 https://www.arxiv.org/abs/2508.09494 实测成绩亮眼 金融垂类基准 FinanceBench:准确率从 16% 飙到 26%,相对提升 160%。 长尾知识基准 SimpleQA:准确率由 16% 暴涨至 66%,相对提升 312%。 用框架合成的 1 T tokens 训练出 8B 模型 Meta WikiExpert,事实问答表现超越 405B 的 Llama 3.1 与 236B 的 DeepSeekV2。 研究亮点 全流程自动化:无需人工设计问答模板。 数据多样性:一次文档可衍生释义、类比、填空、多轮 QA 等多种形式。 可扩展:已验证在预训练阶段直接放大到万亿 token 规模。 下一步,团队计划把...
