当今人工智能面临的三大数据隐私问题 - The Daily Hodl

当今人工智能面临的三大数据隐私问题 – Daily Hodl

HodlX访客留言  提交你的文章

 

AI(人工智能)引起了消费者和企业的疯狂兴奋 我们坚信 LLM(大型语言模型)和 ChatGPT 等工具将改变我们的学习、工作和生活方式。

但就像互联网的早期一样,用户在不考虑他们的个人数据如何使用的情况下就投入其中 - 一个以及这可能对他们的隐私产生的影响。

人工智能领域已经有无数数据泄露的例子。 2023年XNUMX月,OpenAI暂时接管ChatGPT 这一点在线下监测数字化产品的影响方面尤为明显。 在发生“重大”错误后,用户可以看到陌生人的对话历史记录。

同样的错误意味着订阅者的付款信息 包括姓名、电子邮件地址和部分信用卡号码 也属于公共领域。

2023 年 38 月,高达 XNUMX TB 的 Microsoft 数据被无意中泄露 泄露 网络安全专家警告称,这可能会让攻击者利用恶意代码渗透人工智能模型。

研究人员还能够 操纵 人工智能系统泄露机密记录。

在短短几个小时内,一个名为 Robust Intelligence 的组织就能够从 Nvidia 软件中获取个人身份信息,并绕过旨在阻止系统讨论某些主题的安全措施。

我们从所有这些场景中吸取了教训,但每次违规都有力地说明了人工智能要成为我们生活中可靠且值得信赖的力量需要克服的挑战。

谷歌的聊天机器人 Gemini 甚至承认所有对话都是由人类审核员处理的 强调其系统缺乏透明度。

“不要输入任何您不想被审查或使用的内容,”向用户发出的警告警告说。

人工智能正在迅速超越学生做作业或游客在罗马旅行期间依赖的推荐工具。

敏感讨论越来越依赖它 并提供从医疗问题到工作安排的一切信息。

因此,有必要退一步思考当今人工智能面临的三大数据隐私问题,以及为什么它们对我们所有人都很重要。

1. 提示不是私密的

ChatGPT 等工具会记住过去的对话,以便以后查阅。虽然这可以改善用户体验并帮助培训法学硕士,但它也伴随着风险。

如果系统被成功入侵,则存在在公共论坛中暴露提示的真正危险。

当人工智能用于工作目的时,用户历史记录中潜在的令人尴尬的细节以及商业敏感信息都可能被泄露。

正如我们从谷歌看到的,所有提交的内容最终都会受到其开发团队的审查。

三星于 2023 年 XNUMX 月对此采取了行动,完全禁止员工使用生成式人工智能工具。这是在一名员工之后发生的 上传 ChatGPT 的机密源代码。

这家科技巨头担心这些信息很难检索和删除,这意味着 IP(知识产权)最终可能会被分发给广大公众。

苹果、Verizon 和摩根大通也采取了类似的行动,有报道称,在 ChatGPT 的回复与其内部数据相似后,亚马逊发起了打击行动。

正如您所看到的,人们的担忧不仅限于数据泄露时会发生什么,还包括输入人工智能系统的信息可能被重新利用并分发给更广泛的受众的前景。

像 OpenAI 这样的公司已经 面对 据称他们的聊天机器人是使用受版权保护的材料进行训练的,因此引发了多起诉讼。

2. 组织训练的定制人工智能模型不是私有的

这将我们引向下一点 虽然个人和企业可以根据自己的数据源建立自己的定制 LLM 模型,但如果它们存在于 ChatGPT 等平台的范围内,它们就不会完全私有。

最终无法知道输入是否被用于训练这些庞大的系统 或者个人信息是否最终会被用于未来的模型中。

就像拼图一样,来自多个来源的数据点可以汇集在一起​​,形成对某​​人身份和背景的全面且详细得令人担忧的洞察。

主要平台也可能无法提供有关如何存储和处理这些数据的详细解释,并且无法选择退出用户不舒服的功能。

除了响应用户的提示之外,人工智能系统越来越有能力解读字里行间的含义,并推断出从一个人的位置到他的个性等一切信息。

如果发生数据泄露,可能会造成可怕的后果。可以精心策划极其复杂的网络钓鱼攻击 用户将其秘密输入人工智能系统的信息作为目标。

其他潜在的场景包括这些数据被用来假设某人的身份,无论是通过开设银行账户的应用程序还是深度伪造视频。

即使消费者自己不使用人工智能,也需要保持警惕。人工智能越来越多地被用于为监控系统提供动力并增强公共场所的面部识别技术。

如果此类基础设施不是在真正的私人环境中建立的,那么无数公民的公民自由和隐私可能会在他们不知情的情况下受到侵犯。

3. 私有数据用于训练AI系统

有人担心,主要的人工智能系统是通过仔细研究无数网页来收集情报的。

据估计,ChatGPT 的训练使用了 300 亿个单词 那是 570 GB 的数据 数据集中包含书籍和维基百科条目。

众所周知,算法依赖于社交媒体页面和在线评论。

通过其中一些来源,您可以认为这些信息的所有者对隐私有合理的期望。

但事情是这样的 我们每天交互的许多工具和应用程序已经受到人工智能的严重影响 并对我们的行为做出反应。

iPhone 上的 Face ID 使用人工智能来跟踪您外表的细微变化。

TikTok 和 Facebook 的人工智能算法会根据您过去观看过的剪辑和帖子进行内容推荐。

Alexa 和 Siri 等语音助手也严重依赖机器学习。

人工智能初创公司数量令人眼花缭乱,每家都有特定的目的。然而,有些公司在如何收集、存储和应用用户数据方面比其他公司更加透明。

这一点尤其重要,因为人工智能对医疗保健领域产生了影响 从医学成像和诊​​断到记录保存和制药。

近年来陷入隐私丑闻的互联网企业需要吸取教训。

Flo 是一款女性健康应用程序 被告 2010 年代,监管机构向 Facebook 和 Google 等公司分享用户的私密信息。

我们从哪里开始

人工智能将在未来几年对我们所有人的生活产生不可磨灭的影响。法学硕士日新月异,新的用例不断出现。

然而,随着该行业飞速发展,监管机构将面临着难以跟上的真正风险。

这意味着消费者需要开始保护自己的数据并监控其使用方式。

去中心化可以在这里发挥至关重要的作用,防止大量数据落入主要平台手中。

DePIN(去中心化物理基础设施网络)有潜力确保日常用户体验人工智能的全部好处,而不会损害他们的隐私。

加密提示不仅可以提供更加个性化的结果,而且保护隐私的法学硕士将确保用户始终完全控制自己的数据 并防止其被滥用。


克里斯·威尔 (Chris Were) 是 维达,一个去中心化的、自主主权的数据网络,使个人能够控制自己的数字身份和个人数据。 Chris 是一位澳大利亚科技企业家,20 多年来一直致力于开发创新软件解决方案。

 

在HodlX上查看最新的头条新闻

跟着我们 Twitter Facebook Telegram

查询 最新行业公告  

当今人工智能面临的三大数据隐私问题 - Daily Hodl PlatoBlockchain 数据智能。垂直搜索。人工智能。

免责声明:The Daily Hodl表达的意见不是投资建议。 在对比特币,加密货币或数字资产进行任何高风险投资之前,投资者应该进行尽职调查。 请注意,您的转账和交易风险由您自行承担,您可能承担的任何损失都是您的责任。 Daily Hodl不建议购买或出售任何加密货币或数字资产,The Daily Hodl也不是投资顾问。 请注意,The Daily Hodl参与联盟营销。

生成的图像:中途

时间戳记:

更多来自 每日Hodl