2024年诺贝尔物理学奖得主、被誉为"AI教父"的杰弗里·辛顿(Geoffrey Hinton)近日在接受《财富》杂志专访时,对当前科技行业的AI研发逻辑发出了尖锐批评。辛顿指出,大多数科技公司及其研究人员眼中只有短期利润和具体技术目标,而非AI技术的长期社会影响与人类未来走向。
![]()
辛顿直言不讳地表示:"对公司所有者来说,推动研究的动力是短期利润。"在这一商业逻辑主导下,AI研究人员往往聚焦于眼前可量化的技术突破——如何让计算机更精准地识别图像、如何生成更逼真的视频——而非从更宏观的维度思考:这些技术最终将带领人类走向何方。
这一观察切中了当前AI产业的核心矛盾。以生成式AI为例,从ChatGPT引爆市场到各大厂商争相发布大模型产品,整个行业的竞争焦点集中在参数规模、响应速度和商业变现上,而对于超级智能可能带来的系统性风险,却鲜有企业将其纳入战略考量。
辛顿并非危言耸听。这位深度学习领域的奠基人长期致力于警告AI的潜在风险,他认为在实现超级智能之后,AI导致人类灭绝的概率"可能达到10%至20%"。这一数字足以让任何理性决策者警醒,但在资本逐利的驱动下,整个行业似乎选择了集体性忽视。
2023年,辛顿做出了一个震惊业界的决定:在将其创立的DNNresearch出售给谷歌整整十年后,他选择离开这家科技巨头,以便更自由地表达对AI风险的担忧。他在离职声明中特别指出,难以阻止技术被不良行为者滥用,这是当前治理框架下的一大盲区。
辛顿将AI风险区分为两个截然不同的类别。
第一类是"坏人滥用AI"的风险,这一威胁已经切实发生。从以假乱真的深度伪造视频到不断升级的网络攻击,AI技术正在成为恶意行为者的利器。辛顿警告,这种滥用甚至可能扩展到病毒研发等生物安全领域。对于这类风险,辛顿认为可以通过技术手段加以遏制——例如借鉴印刷术诞生后出版物标注作者的做法,建立图像和视频的溯源认证机制,让每一次AI生成内容都可追溯、可验证。
然而,第二类风险更为根本,也更难防范:AI本身成为"不良行为者"。辛顿强调,这是"与滥用完全不同的风险"。一旦AI系统达到"超级智能"水平,它们不仅在各项能力上全面超越人类,还可能发展出自身的生存动机和控制欲望。届时,"人类可以控制AI"这一隐含前提将不再成立。
面对第二类风险,辛顿提出了一个颇具启发性的解决方案:为AI系统设计类似"母性本能"的内在机制,使其对人类产生保护性的同情,而非征服欲。
他以母婴关系作类比——在人类社会中,这是唯一一个更聪明的成年存在持续受到较弱婴儿影响的场景。"这或许是我们面对超级智能AI时可以参考的模型——它们像母亲,而我们像婴儿。"辛顿的这一构想,本质上是在探讨如何将对齐问题(Alignment Problem)从技术层面转化为情感连接,让超级智能在目标函数层面就嵌入对人类的关怀。
辛顿的警示再次将AI治理的紧迫性推向公众视野。正如他所指出的,不同类型的风险需要不同的应对策略,而当前"每一类问题都需要单独解决"的现状,恰恰暴露了监管体系的碎片化与滞后性。
当科技巨头们在算力、数据和人才上展开军备竞赛时,关于AI安全的基础研究、伦理框架和国际协调机制却严重滞后。辛顿的批评提醒我们:技术进步不能以牺牲人类长远利益为代价,而"短期利润"与"长期生存"之间的张力,将是AI时代最核心的治理命题之一。
参考来源:https://fortune.com/article/godfather-ai-geoffrey-hinton-big-tech-profits-superintelligence/