确保人工智能安全:您应该了解什么

确保人工智能安全:您应该了解什么

确保人工智能安全:您应该了解的柏拉图区块链数据智能。垂直搜索。人工智能。

多年来,机器学习工具一直是标准业务和 IT 工作流程的一部分,但不断展开的生成式人工智能革命正在推动这些工具的采用和认知度迅速提高。 虽然人工智能为各个行业提供了效率优势,但这些强大的新兴工具需要特殊的安全考虑。

确保人工智能安全有何不同?

当前的人工智能革命可能是新的,但谷歌和其他地方的安全团队在人工智能安全方面已经工作了很多年,甚至几十年。 在许多方面,保护人工智能工具的基本原则与一般网络安全最佳实践相同。 通过加密和强身份等基础技术来管理访问和保护数据的需求不会仅仅因为人工智能的参与而改变。

确保人工智能安全的一个不同领域是数据安全方面。 人工智能工具由数据驱动并最终由数据编程,这使得它们容易受到新的攻击,例如训练数据中毒。 向人工智能工具提供有缺陷的数据(或破坏合法训练数据)的恶意行为者可能会以比传统系统更复杂的方式损坏或彻底破坏它。 如果该工具正在积极“学习”,因此其输出会随着时间的推移而根据输入而变化,那么组织必须确保它不会偏离其最初的预期功能。

对于传统(非人工智能)大型企业系统,你从中获得的就是你投入的。 如果没有恶意输入,您将不会看到恶意输出。 但作为 谷歌 CISO Phil Venables 在最近的播客中表示,“要实现人工智能系统,你必须考虑输入和输出管理。”
人工智能系统的复杂性及其动态特性使得它们比传统系统更难保护。 在输入阶段必须小心,以监控进入人工智能系统的内容,在输出阶段,以确保输出正确且值得信赖。

实施安全的人工智能框架

保护人工智能系统和预测新威胁是确保人工智能系统按预期运行的首要任务。 谷歌的安全人工智能框架 (高金)及其 确保人工智能安全:相似还是不同? 报告是很好的起点,概述了如何思考和解决与开发人工智能相关的特定安全挑战和新漏洞。

SAIF 首先要清楚地了解您的组织将使用哪些人工智能工具以及它们将解决哪些具体业务问题。 预先定义这一点至关重要,因为它可以让您了解组织中的哪些人将参与其中以及该工具需要访问哪些数据(这将有助于确保人工智能安全所需的严格数据治理和内容安全实践)。 在整个组织中交流人工智能的适当用例和局限性也是一个好主意; 这项政策可以帮助防止人工智能工具的非官方“影子 IT”使用。

在清楚地识别工具类型和用例后,您的组织应该组建一个团队来管理和监控人工智能工具。 该团队应包括您的 IT 和安全团队,还应包括您的风险管理团队和法律部门,并考虑隐私和道德问题。

一旦确定了团队,就可以开始培训了。 为了在组织中正确保护人工智能,您需要从入门知识开始,帮助每个人了解该工具是什么、它可以做什么以及哪里可能会出错。 当一个工具落入未受过人工智能能力和缺点培训的员工手中时,就会显着增加出现问题事件的风险。

采取这些初步步骤后,您已经为组织中的 AI 安全奠定了基础。 有 Google SAIF 的六大核心要素 您应该实施,从默认安全的基础开始,逐步使用以下方法创建有效的纠正和反馈周期 红队.

确保人工智能安全的另一个基本要素是让人类尽可能多地参与其中,同时也认识到对人工智能工具的手动审查可能会更好。 随着您在组织中使用人工智能的进展,培训至关重要 - 培训和再培训,不是针对工具本身,而是针对您的团队。 当人工智能超出组织中实际人员的理解范围和复查能力时,出现问题的风险就会迅速增加。

人工智能安全正在迅速发展,该领域的工作人员保持警惕至关重要。 识别潜在的新威胁并制定对策来预防或减轻这些威胁至关重要,这样人工智能才能继续帮助世界各地的企业和个人。

查看更多 Google Cloud 合作伙伴的观点

时间戳记:

更多来自 暗读