可以相信生成式人工智能可以修复您的代码吗?

可以相信生成式人工智能可以修复您的代码吗?

可以相信生成式人工智能可以修复您的代码吗? Plato区块链数据智能。垂直搜索。人工智能。

世界各地的组织都在竞相将人工智能技术纳入其网络安全计划和工具中。 A 大多数(65%)开发商 使用或计划 在测试工作中使用人工智能 未来三年。 有许多安全应用程序将受益于生成式人工智能,但修复代码是其中之一吗?

对于许多 DevSecOps 团队来说,生成式 AI 代表着清除不断增加的漏洞积压的圣杯。 远超一半 (66%) 的组织表示,他们的积压工作由超过 100,000 个漏洞组成,超过三分之二的静态应用程序安全测试 (SAST) 报告的结果在检测三个月后仍处于开放状态,其中 50 天后 363% 仍保持开放状态。 我们的梦想是,开发人员可以简单地要求 ChatGPT“修复此漏洞”,而之前花费数小时和数天修复漏洞的时间将成为过去。

从理论上讲,这并不是一个完全疯狂的想法。 毕竟,机器学习多年来一直在网络安全工具中有效使用,以实现流程自动化并节省时间——人工智能在应用于简单、重复性任务时非常有益。 但在实践中,将生成式人工智能应用于复杂的代码应用程序存在一些缺陷。 如果没有人工监督和明确的命令,DevSecOps 团队最终可能会制造出比解决的问题更多的问题。

与修复代码相关的生成式人工智能的优点和局限性

人工智能工具可以成为非常强大的工具,可满足简单、低风险的网络安全分析、监控甚至补救需求。 当利害关系变得重大时,人们就会产生担忧。 这归根结底是一个信任问题。

研究人员和开发人员仍在确定新的生成人工智能技术的能力 生成复杂的代码修复。 生成式人工智能依靠现有的可用信息来做出决策。 这对于将代码从一种语言翻译成另一种语言或修复众所周知的缺陷等事情很有帮助。 例如,如果您要求 ChatGPT“用 Python 编写此 JavaScript 代码”,您可能会得到一个好的结果。 使用它来修复云安全配置会很有帮助,因为相关文档是公开可用的并且很容易找到,并且人工智能可以遵循简单的说明。

然而,修复大多数代码漏洞需要针对​​一组独特的情况和细节采取行动,从而引入更复杂的场景供人工智能导航。 人工智能可能会提供“修复”,但未经验证,它不应该被信任。 根据定义,生成式人工智能无法创造出未知的东西,并且它可能会产生幻觉,从而产生虚假的输出。

在最近的一个例子中,一名律师在使用 ChatGPT 帮助撰写法庭文件后面临严重后果,该文件引用了人工智能工具发明的六个不存在的案件。 如果人工智能幻觉出不存在的方法,然后将这些方法应用于编写代码,就会导致在无法编译的“修复”上浪费时间。 此外,根据 OpenAI 的 GPT-4 白皮书随着时间的推移,新的漏洞利用、越狱和紧急行为将会被发现,并且难以预防。 因此,需要仔细考虑,以确保人工智能安全工具和第三方解决方案经过审查并定期更新,以确保它们不会成为系统的意外后门。

信任还是不信任?

在零信任运动的鼎盛时期,生成式人工智能的快速采用是一个有趣的动态。 大多数网络安全工具都建立在这样的理念之上:组织永远不应该信任,而应该始终验证。 生成式人工智能建立在对已知和未知来源提供的信息固有信任的原则之上。 这种原则上的冲突似乎是组织在寻找安全和生产力之间的适当平衡方面所面临的持续斗争的一个恰当比喻,而此时此刻,这种斗争感觉尤其加剧。

虽然生成式 AI 可能还不是 DevSecOps 团队所希望的圣杯,但它将有助于在减少漏洞积压方面取得渐进进展。 目前,它可以用于进行简单的修复。 对于更复杂的修复,他们需要采用验证到信任的方法,该方法在编写和拥有代码的开发人员的知识指导下利用人工智能的力量。

时间戳记:

更多来自 暗读