人工智能领域顶级会议NeurIPS 2025最佳论文奖近日公布,共四篇论文获奖,其中多篇由华人学者主导。获奖工作涵盖语言模型多样性、大模型注意力机制、深度强化学习及扩散模型理论。
![]()
其中包括 Liwei Jiang 等提出的《Artificial Hivemind》,揭示大模型生成中的“人工蜂群效应”;Zihan Qiu 等来自阿里巴巴Qwen团队的《Gated Attention for Large Language Models》,提出有效缓解“注意力沉降”问题的新机制;Princeton University 的 Kevin Wang 等通过千层网络实现自监督强化学习突破;以及 PSL University 的 Tony Bonnaire 等对扩散模型泛化机理的理论分析。
此外,He Kaiming、Sun Jian 等的《Faster R-CNN》荣获“时间检验奖”。
以下是获奖论文的简要介绍:
最佳论文
-
Artificial Hivemind: The Open-Ended Homogeneity of Language Models (and Beyond)
- 作者:Liwei Jiang, Yuanjun Chai等
- 机构:艾伦人工智能研究所、斯坦福大学
- 内容:提出大规模数据集Infinity-Chat,揭示大语言模型在开放式生成中存在“人工蜂群思维”效应,即模型内重复和模型间同质化问题,为评估模型多样性提供了新基准。
- 链接:https://openreview.net/pdf?id=saDOrrnNTz
-
Gated Attention for Large Language Models: Non-Linearity, Sparsity, and Attention-Sink-Free
- 作者:Zihan Qiu, Zekun Wang等
- 机构:阿里通义千问团队、爱丁堡大学等
- 内容:系统分析注意力门控机制对大语言模型的影响,发现其能提升模型性能、训练稳定性及长上下文泛化能力,相关成果已应用于Qwen3-Next模型。
- 链接:https://openreview.net/pdf?id=1b7whO4SfY
-
1000 Layer Networks for Self-Supervised RL: Scaling Depth Can Enable New Goal-Reaching Capabilities
- 作者:Kevin Wang, Ishaan Javali等
- 机构:普林斯顿大学、华沙理工大学
- 内容:证明将网络深度扩展至1024层可显著提升自监督强化学习性能,突破传统浅层网络限制,为构建更强大的AI系统开辟新途径。
- 链接:https://openreview.net/pdf?id=s0JVsx3bx1
-
Why Diffusion Models Don’t Memorize: The Role of Implicit Dynamical Regularization in Training
- 作者:Tony Bonnaire, Raphaël Urfink等
- 机构:巴黎文理研究大学、博科尼大学
- 内容:揭示扩散模型训练中的隐式动态正则化机制,解释其为何能在高度过参数化下避免记忆化,为理解生成式AI的泛化能力提供理论基础。
- 链接:https://openreview.net/pdf?id=BSZqpqgqM0
最佳论文亚军
-
Does Reinforcement Learning Really Incentivize Reasoning Capacity in LLMs Beyond the Base Model?
- 作者:Yang Yue, Zhiqi Chen等
- 机构:清华大学、上海交通大学
- 内容:挑战强化学习激发大语言模型推理能力的假设,指出带可验证奖励的强化学习(RLVR)未必能提升模型推理能力,为新型强化学习范式的研究提供方向。
- 链接:https://openreview.net/pdf?id=4OsgYD7em5
-
Optimal Mistake Bounds for Transductive Online Learning
- 作者:Zachary Chase, Steve Hanneke等
- 机构:肯特州立大学、普渡大学等
- 内容:解决学习理论领域长达30年的公开难题,精确刻画传导式在线学习的最优错误上界,确立其与标准在线学习的二次量级差距。
- 链接:https://openreview.net/pdf?id=EoebmBe9fG
-
Superposition Yields Robust Neural Scaling
- 作者:Yizhou Liu, Ziming Liu等
- 机构:麻省理工学院
- 内容:论证表征叠加是神经网络缩放定律的主要机制,为理解模型规模与性能的关系提供新视角。
- 链接:https://openreview.net/pdf?id=knPz7gtjPW
此外,任少卿、何恺明等2015年合著的《Faster R-CNN》获得时间检验奖,该论文奠定了现代目标检测框架的核心范式。