为什么纽约时报的人工智能版权诉讼很难辩护

为什么纽约时报的人工智能版权诉讼很难辩护

为什么纽约时报的人工智能版权诉讼捍卫柏拉图区块链数据智能会很棘手。垂直搜索。人工智能。

纽约时报 (NYT) 法律诉讼 针对 OpenAI 和微软的诉讼,为解决因使用受版权保护的数据“训练”或改进生成人工智能而带来的持续法律挑战开辟了新领域。

目前已经有各种针对人工智能公司的诉讼,其中包括由 盖蒂图片社反对稳定人工智能,这使得稳定扩散在线文本到图像生成器。作者 George RR Martin 和 John Grisham 还针对 ChatGPT 所有者 OpenAI 的版权主张提起了法律诉讼。但《纽约时报》的案例并非“大同小异”,因为它引入了有趣的新论点。

法律行动的重点是 培训数据的价值以及与声誉损害有关的新问题。它是商标和版权的有效组合,可以测试通常依赖的合理使用辩护。

毫无疑问,它将受到媒体组织的密切关注,希望挑战通常的“让我们请求宽恕,而不是许可”的训练数据方法。训练数据用于提高人工智能系统的性能,通常由现实世界的信息组成,通常来自互联网。

该诉讼还提出了一个新颖的论点(其他类似案件没有提出),该论点与称为 “幻觉,” 人工智能系统生成虚假或误导性信息,但将其呈现为事实。事实上,这一论点可能是本案中最有力的论点之一。

《纽约时报》的案例特别提出了对通常方法的三个有趣的看法。首先,由于其新闻和信息值得信赖的声誉,《纽约时报》的内容作为人工智能中使用的训练数据具有更高的价值和吸引力。

其次,由于《纽约时报》的付费墙,按需复制文章会造成商业损失。第三,那个 ChatGPT 幻觉实际上是通过错误归因对《纽约时报》造成声誉损害。

这不仅仅是另一起生成式人工智能版权纠纷。 《纽约时报》提出的第一个论点是,OpenAI 使用的训练数据受版权保护,因此他们声称 ChatGPT 的训练阶段侵犯了版权。我们已经看到过这种类型的争论 之前运行 在其他纠纷中。

合理使用?

此类攻击面临的挑战是 合理使用盾。在美国,合理使用是一项法律原则,允许在某些情况下使用受版权保护的材料,例如新闻报道、学术工作和评论。

OpenAI 的回应 到目前为止,该公司一直非常谨慎,但该公司发布的一份声明中的一个关键原则是,他们对在线数据的使用确实符合“合理使用”的原则。

预计这种合理使用辩护可能会造成一些困难,《纽约时报》采取了略有不同的角度。特别是,它试图将其数据与标准数据区分开来。 《纽约时报》打算利用其声称的报道的准确性、可信度和声誉。它声称这创建了一个特别理想的数据集。

它认为,作为一个信誉良好且值得信赖的来源,其文章在训练生成人工智能方面具有额外的权重和可靠性,并且是在训练中被赋予额外权重的数据子集的一部分。

它认为,通过在提示下大量复制文章,ChatGPT 能够否认《纽约时报》, 这是付费墙、访客和收入。引入商业竞争和商业优势的某些方面似乎是为了阻止这些主张常见的合理使用辩护。

看看训练数据中特殊权重的断言是否会产生影响将会很有趣。如果确实如此,它将为其他媒体组织质疑在未经许可的情况下在培训数据中使用其报道提供了一条途径。

《纽约时报》声明的最后一个要素提出了应对这一挑战的新颖角度。这表明 ChatGPT 制作的材料正在对《纽约时报》品牌造成损害。虽然投诉中几乎是事后才想到的,但这一说法可能给 OpenAI 带来了最大的困难。

这就是与人工智能幻觉有关的争论。 《纽约时报》认为,情况变得更加复杂,因为 ChatGPT 提供的信息来自《纽约时报》。

该报进一步建议,消费者可能会根据ChatGPT给出的摘要采取行动,认为这些信息来自《纽约时报》,值得信赖。声誉受损是因为该报纸无法控制 ChatGPT 的内容。

这是一个有趣的挑战。幻觉是人工智能生成的反应中一个公认的问题,《纽约时报》认为声誉损害可能不容易纠正。

《纽约时报》的声明开启了一系列新颖的攻击,将焦点从版权转移到 ChatGPT 如何向用户呈现受版权保护的数据以及该数据对报纸的价值。对于 OpenAI 来说,防御这一点要困难得多。

其他媒体出版商,尤其是那些付费墙后面的媒体出版商将密切关注此案,特别是它如何与通常的合理使用辩护互动。

如果《纽约时报》数据集被认为具有其声称的“增强价值”,那么它可能会为该数据集在训练人工智能中的货币化铺平道路,而不是当今流行的“宽恕,而不是许可”方法。

本文重新发表 谈话 根据知识共享许可。 阅读 原创文章.

图片来源: 绝对视觉 / Unsplash 

时间戳记:

更多来自 奇异枢纽