Meta 发布 CoT 验证模型:基于 Llama 3.1 的白盒推理纠错工具
Meta AI 实验室在 Hugging Face 上推出了一款创新型大模型,专为验证和优化链式思维(Chain-of-Thought, CoT)推理而设计。该模型名为“CoT-Verifier”(暂定),基于 Llama3.18B Instruct 架构构建而成,采用 TopK 转码器(Transducer)机制,提供了一种前所未有的白盒方法,帮助开发者深入剖析并修正 AI 推理过程中的错误环节。 在当前的人工智能研究中,思维链(CoT)验证方法主要依赖于模型输出的黑盒方式,或是通过激活信号的灰盒分析来预测推理的正确性。这些方法虽然具有一定的实用性,但对于推理失败的根本原因却缺乏深入的了解。针对这一问题,研究团队引入了 CRV 方法,认为不同推理步骤的归因图 — 也即模型潜在推理电路的执行轨迹 — 在结构特征上存在显著差异。 研究表明,正确推理步骤的归因图与错误步骤的归因图在结构上具有明显的区别。这种结构特征的差异性为推理错误的预测提供了新的科学依据。通过训练分类器对这些结构特征进行分析,研究人员证明了错误的结构特征具有高度的预测性,进一步验证了通过计算图直接评估推理正确性的可行性。...

