谷歌威胁情报小组(Google Threat Intelligence Group)周一发布研究报告称,一个犯罪黑客组织近期尝试发动大规模网络攻击,而攻击手段疑似依赖人工智能发现了一个此前未知的软件漏洞。这标志着 AI 辅助网络攻击正从理论走向现实。

"我们有高度信心认为,该攻击者很可能利用了 AI 模型来辅助发现和武器化这一漏洞。" 报告如此写道。
此次发现的漏洞属于"零日漏洞"(zero-day)——即软件厂商尚未知晓的安全缺陷。过去,这类漏洞在黑市上价值数百万美元。但谷歌表示,这是首次已知 AI 被用于发现并恶意利用零日漏洞的案例。
该漏洞存在于 Python 脚本中,攻击者可利用它绕过一款流行的开源 Web 系统管理工具的双因素认证(2FA)。不过,黑客仍需获取有效的用户名和密码才能成功入侵。谷歌未透露该工具的具体名称、攻击目标以及黑客使用的 AI 平台,但表示并非其自家的 Gemini 聊天机器人。
谷歌威胁情报小组首席分析师 John Hultquist 在接受采访时表示:
"这只是冰山一角。我们相信这个问题可能远比目前看到的要大,这只是我们能够看到的第一份切实证据。"
前美国国家安全局(NSA)网络安全主管 Rob Joyce 在审阅报告后表示,虽然很难判断代码是由人类还是机器编写的——"AI 编写的代码不会自我声明"——但谷歌提供的证据颇具说服力,包括代码中存在人类程序员通常不会添加的过度解释性注释等异常特征。Joyce 形容这些线索是"最接近犯罪现场指纹的东西"。
此次事件发布之际,科技行业和各国政府正重新评估如何监管先进的 AI 模型,其中网络安全问题已成为核心关切。Anthropic 上个月发布的 Mythos AI 模型据称能够在各大操作系统和浏览器中发现数千个零日漏洞,因此该公司仅向美国和英国的少数企业和政府机构开放了该模型。
Hultquist 认为,尽管尖端 AI 模型最终将帮助构建更安全的软件代码,但短期内政府和企业必须通力合作,以限制 AI 对当前互联网的潜在破坏。
"最前沿的模型将帮助我们构建有史以来最安全的代码,这对网络安全来说是绝对的胜利。挑战在于我们刚刚开始这一进程,而必须面对的是一个已经存在的、由不完美的人类双手构建的代码世界。"
谷歌表示,已及时向相关软件厂商通报该漏洞,使其能够在攻击造成破坏前发布补丁。此次零日漏洞是谷歌威胁情报小组在过去几个月内检测到的,由"知名的网络犯罪威胁行为者"实施。
原文来源:The New York Times