ChatGPT 等法学硕士持续泄露敏感数据

ChatGPT 等法学硕士持续泄露敏感数据

ChatGPT 等法学硕士持续泄露敏感数据 PlatoBlockchain 数据智能。垂直搜索。人工智能。

在一项开创性研究中,北卡罗来纳大学教堂山分校的一个团队揭示了 OpenAI 的 ChatGPT 和 Google 的 Bard 等大型语言模型 (LLM) 中数据保留的紧迫问题。

尽管尝试删除,这些人工智能模型的复杂性仍在继续出现 敏感数据,引发一场关于信息安全和人工智能伦理的激烈对话。

“不可删除”的数据难题

研究人员着手调查如何消除法学硕士中的敏感信息。 然而,他们偶然发现了一个启示。 删除此类数据非常困难,但验证删除也同样面临挑战。 一旦接受了广泛的数据集训练,这些人工智能庞然大物就将数据隐藏在复杂的参数和权重迷宫中。

当这种困境变得不祥时 AI模型 无意中泄露敏感数据,例如个人标识符或财务记录,可能为恶意用途奠定基础。

而且,问题的核心在于这些模型的设计蓝图。 初步阶段包括对庞大数据库进行培训并进行微调,以确保输出的一致性。 GPT 中封装的术语“生成式预训练 Transformer”让我们可以一睹这一机制。

北卡罗来纳大学的学者们阐述了一个假设场景,即拥有大量敏感银行数据的法学硕士成为潜在威胁。 人工智能开发人员采用的现代护栏不足以缓解这种担忧。

这些保护措施,例如硬编码提示或称为人类反馈强化学习 (RLHF) 的范式,在遏制不良输出方面发挥着至关重要的作用。 然而,他们仍然将数据隐藏在模型的深渊中,只需重新措辞提示即可调用。

弥合安全差距

尽管部署了最先进的模型编辑方法(例如一级模型编辑),北卡罗来纳大学团队发现仍然可以访问大量事实信息。 他们的研究结果显示,通过白盒和黑盒攻击,事实可以分别在 38% 和 29% 的情况下复活。

在他们的探索中,研究人员使用了一种称为 GPT-J 的模型。 它拥有 6 亿个参数,与庞大的 GPT-3.5 相比简直是小巫见大巫。 ChatGPT 的基本模型 具有 170 亿个参数。 这种鲜明的对比暗示了从无根据的数据中清理 GPT-3.5 等大型模型所面临的巨大挑战。

此外,北卡罗来纳大学的学者们制定了新的防御方法,以保护法学硕士免受特定的“提取攻击”。 这些邪恶的计划利用模型的护栏来窃取敏感数据。 尽管如此,该论文还是不祥地暗示了一场永恒的猫捉老鼠的游戏,防御策略将永远追赶不断发展的进攻策略。

微软授权核心团队支持人工智能

与此相关的是,人工智能领域的蓬勃发展推动了微软等科技巨头冒险进入未知领域。 微软最近组建了一个核电团队来支持人工智能计划,这突显了人工智能和能源资源不断增长的需求以及相互交织的未来。 随着人工智能模型的发展,它们对能源的需求不断增长,为满足这种不断增长的需求的创新解决方案铺平了道路。

关于法学硕士中数据保留和删除的讨论超越了学术走廊。 它需要进行彻底的检查和全行业的对话,以建立一个强大的框架,确保数据安全,同时培育人工智能的增长和潜力。

北卡罗来纳大学研究人员的这一尝试是朝着理解并最终解决“不可删除”数据问题迈出的重大一步,距离使人工智能成为数字时代更安全的工具又近了一步。

时间戳记:

更多来自 元新闻