人工智能增强威胁情报如何解决安全缺陷

人工智能增强威胁情报如何解决安全缺陷

人工智能增强威胁情报如何解决安全缺陷 PlatoBlockchain 数据智能。垂直搜索。人工智能。

安全运营和威胁情报团队长期人手短缺,数据不堪重负,并且需要处理相互竞争的需求——大语言模型(LLM)系统可以帮助解决所有问题。 但缺乏系统经验阻碍了许多公司采用该技术。

实施法学硕士的组织将能够更好地从原始数据和 深化威胁情报能力,但此类计划需要安全领导层的支持才能正确定位。 Mandiant 情报分析小组负责人约翰·米勒 (John Miller) 表示,团队应该针对可解决的问题实施法学硕士,在此之前,他们需要评估法学硕士在组织环境中的效用。

“我们的目标是帮助组织应对不确定性,因为目前还没有很多成功案例或失败案例,”米勒说。 “目前还没有基于常规经验的真正答案,我们希望提供一个框架来思考如何最好地期待这些类型的影响问题。”

在的演讲中 黑帽美国 八月初,题为“由法学硕士支持的威胁情报项目是什么样的?Miller 和 Mandiant 谷歌云情报分析团队的数据科学家 Ron Graf 将展示法学硕士可以增强安全工作人员的能力,以加快和深化网络安全分析的领域。

威胁情报的三个组成部分

米勒告诉 Dark Reading,想要为组织创建强大的威胁情报功能的安全专业人员需要三个组件才能成功创建内部威胁情报功能。 他们需要有关相关威胁的数据; 处理和标准化数据以使其有用的能力; 以及解释该数据如何与安全问题相关的能力。

这说起来容易做起来难,因为威胁情报团队或负责威胁情报的个人常常被利益相关者的数据或请求淹没。 然而,法学硕士可以帮助弥合差距,允许组织中的其他团队通过自然语言查询请求数据并以非技术语言获取信息,他说。 常见问题包括勒索软件等特定威胁领域的趋势,或者公司何时想了解特定市场中的威胁。

米勒表示:“通过法学硕士驱动的能力成功增强威胁情报的领导者基本上可以计划从威胁情报职能中获得更高的投资回报。” “领导者在向前思考时可以期望的是,他们当前的情报职能可以做什么,就是用相同的资源创造出更高的能力来回答这些问题。”

人工智能无法取代人类分析师

采用法学硕士和人工智能增强威胁情报的组织将提高转换和利用企业安全数据集的能力,否则这些数据集将无法利用。 然而,也有陷阱。 依靠法学硕士进行连贯的威胁分析可以节省时间,但也可能导致 潜在的“幻觉”——法学硕士的一个缺点 由于接受了错误或丢失数据的训练,系统将在没有连接的情况下创建连接或完全编造答案。

“如果您依靠模型的输出来做出有关业务安全性的决策,那么您希望能够确认有人已经查看过该模型,并能够识别是否存在任何根本性错误, ”谷歌云的米勒说道。 “你需要能够确保你拥有合格的专家,他们可以在回答这些问题或做出这些决策时表达见解的效用。”

谷歌云的格拉夫表示,这些问题并非不可克服。 组织可以将竞争模型链接在一起,以本质上进行完整性检查并降低幻觉发生率。 此外,以优化的方式提出问题——所谓的“即时工程”——可以带来更好的答案,或者至少是最符合现实的答案。

然而,格拉夫表示,让人工智能与人类配对是最好的方法。

“我们认为最好的方法就是让人类参与其中,”他说。 “无论如何,这都会带来下游性能的改进,因此组织仍然可以获得好处。”

这种增强方法越来越受到关注,因为 网络安全公司已加入 其他公司正在探索通过大型法学硕士转变其核心能力的方法。 以三月份为例,微软 推出安全副驾驶 帮助网络安全团队调查漏洞并寻找威胁。 今年 XNUMX 月,威胁情报公司 Recorded Future 首次推出了 LLM 增强功能,发现该系统能够将大量数据或深度搜索转化为简单的两三句话总结报告,为分析师节省了大量时间。其安全专业人员。

“我认为,从根本上来说,威胁情报是一个‘大数据’问题,您需要对攻击者、基础设施以及攻击目标的各个级别的攻击有广泛的了解,”Jamie Zajac 说, Recorded Future 产品副总裁表示,人工智能让人类在这种环境中变得更加高效。 “一旦你掌握了所有这些数据,你就会遇到‘如何将这些数据综合成有用的东西?’的问题,我们发现,利用我们的智能和大型语言模型……开始节省[我们的分析师]数小时的时间。时间。”

时间戳记:

更多来自 暗读