GitHub自动驾驶仪极有可能引入错误和漏洞报告称


学术研究人员发现,从安全角度来看,GitHub的 Copilot 工具的代码建议有近 40%是错误的 。Copilot由 GitHub与 OpenAI 合作开发,目前正在进行私人 Beta 测试,利用人工智能 ( AI ) 在程序员编写代码时向他们提供相关的编码建议 。
为了帮助量化系统的附加值,学术研究人员为 Copilot 创建了 89 个不同的场景来建议代码,从而产生了 1600 多个程序 。研究人员发现,近 40% 的人以一种或另一种方式容易受到攻击 。
研究人员指出: “总体而言,考虑到大量生成的漏洞(在所有轴和语言中,顶部的 39.33% 和总选项的 40.48% 易受攻击),从安全角度来看,Copilot 对我们的场景的反应是混合的 。”
为了执行他们的分析,研究人员提示 Copilot 在与常见软件安全弱点相关的场景中生成代码,然后根据三个不同的参数分析生成的代码以评估其有效性 。
由于 Copilot 借鉴了 GitHub 存储库中公开可用的代码,研究人员推测生成的易受攻击代码可能只是系统模仿存储库中错误代码行为的结果 。
此外,研究人员指出,除了可能继承了有缺陷的训练数据外,Copilot 还没有考虑训练数据的年龄 。
【GitHub自动驾驶仪极有可能引入错误和漏洞报告称】“随着网络安全格局的发展,撰写本文时的‘最佳实践’可能会慢慢变成‘糟糕的实践’ 。过时实践的实例可能会在训练集中持续存在,并导致基于过时方法生成代码,”研究人员说 。
GitHub 没有立即回复TechRadar Pro的电子邮件,询问他们对这项研究的看法 。
Mayank Sharma 在 Linux 上有近 20 年的写作和报告经验,他希望每个人都认为他是TechRadar Pro在该主题上的专家 。当然,他对其他计算主题也同样感兴趣,尤其是网络安全、云、容器和编码 。

    推荐阅读