如何在网络安全计划中安全地构建人工智能

如何在网络安全计划中安全地构建人工智能

如何在网络安全计划中安全地构建人工智能 PlatoBlockchain 数据智能。垂直搜索。人工智能。

XNUMX 月底,网络安全公司 Group-IB 披露了一项值得注意的信息 影响 ChatGPT 帐户的安全漏洞。 该公司发现了数量惊人的 100,000 台受感染设备,每台设备都带有 ChatGPT 凭证,这些凭证随后在过去一年中在非法暗网市场上进行了交易。 这一漏洞促使人们呼吁立即关注解决 ChatGPT 帐户安全性受损的问题,因为包含敏感信息的搜索查询会暴露给黑客。

在另一起事件中,在不到一个月的时间里,三星遭受了三起有记录的事件,其中员工无意中 通过 ChatGPT 泄露敏感信息。 由于ChatGPT保留用户输入数据以提高自身性能,这些属于三星的宝贵商业秘密现在由AI服务背后的公司OpenAI拥有。 这引起了人们对三星专有信息的机密性和安全性的严重担忧。

由于对 ChatGPT 是否遵守欧盟《通用数据保护条例》(GDPR) 的担忧,该条例规定了严格的数据收集和使用准则, 意大利实施全国禁令 关于使用 ChatGPT。

人工智能和生成式人工智能应用的快速发展为商业智能、产品和运营的加速增长开辟了新的机遇。 但网络安全项目所有者需要在等待法律制定的同时确保数据隐私。

公共引擎与私有引擎

为了更好地理解这些概念,我们首先定义公共人工智能和私有人工智能。 公共人工智能是指可公开访问的人工智能软件应用程序,这些应用程序已经过数据集的训练,这些数据集通常来自用户或客户。 ChatGPT 是公共人工智能的一个典型例子,它利用互联网上的公开数据,包括文本文章、图像和视频。

公共人工智能还可以包含利用非特定用户或组织专有的数据集的算法。 因此,公共人工智能的客户应该意识到他们的数据可能不会完全保密。

另一方面,私人人工智能涉及对特定用户或组织独有的数据进行训练算法。 在这种情况下,如果您使用机器学习系统使用特定数据集(例如发票或税表)来训练模型,则该模型仍然是您的组织独有的。 平台供应商不会利用您的数据来训练他们自己的模型,因此私有人工智能会阻止使用您的数据来帮助您的竞争对手。

将人工智能融入培训计划和政策

为了试验、开发人工智能应用程序并将其集成到其产品和服务中,同时坚持最佳实践,网络安全人员应将以下政策付诸实践。

用户意识和教育: 教育用户有关使用人工智能的风险,并鼓励他们在传输敏感信息时保持谨慎。 促进安全通信实践并建议用户验证人工智能系统的真实性。

  • 数据最小化: 仅向 AI 引擎提供完成任务所需的最少量数据。 避免共享与人工智能处理无关的不必要或敏感信息。
  • 匿名化和去识别化: 只要有可能,在将数据输入人工智能引擎之前对其进行匿名化或去识别化。 这涉及删除个人身份信息 (PII) 或人工智能处理不需要的任何其他敏感属性。

安全数据处理实践: 制定严格的政策和程序来处理您的敏感数据。 仅允许授权人员访问,并实施强大的身份验证机制以防止未经授权的访问。 对员工进行数据隐私最佳实践培训,并实施日志记录和审核机制来跟踪数据访问和使用情况。

保留和处置: 定义数据保留策略并在不再需要数据时安全地处置数据。 实施适当的 数据处理机制,例如安全删除或加密擦除,以确保数据在不再需要后无法恢复。

法律和合规注意事项: 了解您输入人工智能引擎的数据的法律后果。 确保用户使用人工智能的方式符合相关规定,例如 数据保护法 或行业特定标准。

供应商评估: 如果您使用第三方供应商提供的人工智能引擎,请对其安全措施进行全面评估。 确保供应商遵循数据安全和隐私方面的行业最佳实践,并采取适当的保护措施来保护您的数据。 例如,ISO 和 SOC 认证为供应商遵守公认标准及其对信息安全的承诺提供了宝贵的第三方验证。

正式制定人工智能可接受使用政策(AUP): 人工智能可接受的使用政策应概述政策的目的和目标,强调人工智能技术的负责任和道德的使用。 它应该定义可接受的用例,指定人工智能使用的范围和边界。 AUP 应鼓励人工智能使用中的透明度、问责制和负责任的决策,在组织内培育道德人工智能实践文化。 定期审查和更新确保政策与不断发展的人工智能技术和道德规范的相关性。

结论

通过遵守这些准则,项目所有者可以有效地利用人工智能工具,同时保护敏感信息并维护道德和专业标准。 审查人工智能生成的材料的准确性,同时保护用于生成响应提示的输入数据至关重要。

时间戳记:

更多来自 暗读