Anthropic 表示不会使用你的私人数据来训练其人工智能 - Decrypt

Anthropic 表示不会使用您的私人数据来训练其人工智能 – Decrypt

Anthropic 表示不会使用您的私人数据来训练其人工智能 - 解密柏拉图区块链数据智能。垂直搜索。人工智能。

领先的生成式人工智能初创公司 Anthropic 宣布,不会使用客户的数据来训练其大型语言模型 (LLM),并将介入为面临版权索赔的用户辩护。

由 OpenAI 前研究人员创立的 Anthropic 更新了其商业广告 服务条款 阐明其理想和意图。通过挖掘自己客户的私人数据,Anthropic 与 OpenAI、亚马逊和 Meta 等竞争对手形成了鲜明的区别,这些竞争对手确实利用用户内容来改进其系统。

根据更新的条款,“Anthropic 不得利用付费服务中的客户内容来训练模型”,并补充道,“在双方之间并在适用法律允许的范围内,anthropic 同意客户拥有所有输出,并放弃其所拥有的任何权利。”根据这些条款接收客户内容。”

条款还指出,“Anthropic 预计不会根据这些条款获得客户内容的任何权利”,并且“不会以暗示或其他方式授予任何一方对另一方内容或知识产权的任何权利。”

更新后的法律文件表面上为 Anthropic 的商业客户提供了保护和透明度。公司拥有所有生成的人工智能输出,例如,避免潜在的知识产权纠纷。 Anthropic 还致力于保护客户免受 Claude 制作的任何侵权内容的版权索赔。

该政策符合 人类的使命 声明人工智能应该是有益的、无害的和诚实的。随着公众对生成人工智能道德的怀疑与日俱增,该公司致力于解决数据隐私等问题可能会为其带来竞争优势。

用户数据:法学硕士的重要食物

GPT-4、LlaMa 或 Anthropic 的 Claude 等大型语言模型 (LLM) 是先进的人工智能系统,可以通过接受大量文本数据的训练来理解和生成人类语言。这些模型利用深度学习技术和神经网络来预测单词序列、理解上下文并掌握语言的微妙之处。在训练期间,他们不断完善自己的预测,增强交谈、撰写文本或提供相关信息的能力。法学硕士的有效性在很大程度上取决于他们所训练的数据的多样性和数量,这使得他们在从各种语言模式、风格和新信息中学习时更加准确和具有上下文意识。

这就是为什么用户的数据对于培训法学硕士如此有价值。首先,它确保模型与最新的语言趋势和用户偏好保持同步(例如,理解新俚语)。其次,它通过适应个人用户交互和风格来实现个性化和更好的用户参与。然而,这引发了一场道德争论,因为人工智能公司不会向用户支付这些关键信息的费用,这些信息用于训练模型,从而使他们赚取数百万美元。

所报告的 解码, 元 最近透露 该公司正在根据用户数据训练即将推出的 LlaMA-3 LLM,其新的 EMU 模型(根据文本提示生成照片和视频)也使用用户在社交媒体上上传的公开数据进行训练。

除此之外,亚马逊还透露,其即将推出的LLM(将为Alexa的升级版提供支持)也正在接受用户对话和交互的培训,但是,用户可以选择退出培训数据,默认情况下,培训数据设置为假设用户同意亚马逊发言人表示:“[亚马逊]始终相信,根据现实世界的请求对 Alexa 进行训练对于为客户提供准确、个性化且不断改进的体验至关重要。” 告诉 解码。 “但与此同时,我们让客户控制他们的 Alexa 录音是否用于改善服务,并且在训练模型时我们始终尊重客户的偏好。”

随着科技巨头竞相发布最先进的人工智能服务,负责任的数据实践是赢得公众信任的关键。 Anthropic 旨在在这方面以身作则。如今,以牺牲个人信息为代价获得更强大、更方便的模型的道德争论与几十年前社交媒体普及用户概念时一样普遍 成为产品 以换取免费服务。

瑞安·小泽编辑。

随时了解加密新闻,在您的收件箱中获取每日更新。

时间戳记:

更多来自 解码