使用 Github Copilot 等 AI 工具的程序员,其代码安全性更低
斯坦福大学的计算机科学家 Neil Perry、Megha Srivastava、Deepak Kumar 和 Dan Boneh在最新发布的一份研究中指出,接受 Github Copilot 等 AI 工具帮助的程序员编写的代码安全性要低于那些独立编码的程序员;且 AI 助手往往会在输出质量上误导开发者,造成“盲目自信”。 我们进行了第一次大规模用户研究,研究用户如何与 AI 代码助手交互,以解决跨不同编程语言的各种安全相关任务。总的来说,我们发现能够接触到基于 OpenAI 的 codex-davinci-002 模型的 AI 助手的参与者编写的代码安全性明显低于没有接触到的参与者。此外,与没有机会接触到 AI 助手的参与者相比,有机会接触到 AI 助手的参与者更有可能认为他们编写了安全代码。我们发现那些不太信任 AI 而更多地使用提示的语言和格式(例如re-phrasing, adjusting temperature)的参与者提供的代码安全漏洞较少。最后,为了更好地指导未来基于 AI 的代码助手的设计,我们对参与者的语言和互动行为进行了深入分析,并发布了我们的 user int...

