Warum die KI-Urheberrechtsklage der New York Times schwierig zu verteidigen sein wird

Warum es schwierig sein wird, die KI-Urheberrechtsklage der New York Times zu verteidigen

Warum die KI-Urheberrechtsklage der New York Times schwierig sein wird, die Datenintelligenz von PlatoBlockchain zu verteidigen. Vertikale Suche. Ai.

Die New York Times (NYT) Gerichtsverfahren gegen OpenAI und Microsoft hat eine neue Grenze in den anhaltenden rechtlichen Herausforderungen eröffnet, die durch die Verwendung urheberrechtlich geschützter Daten zum „Training“ oder zur Verbesserung generativer KI entstehen.

Es gibt bereits verschiedene Klagen gegen KI-Unternehmen, darunter eine von Getty Images gegen Stabilitäts-KI, wodurch der Stable Diffusion-Online-Text-zu-Bild-Generator entsteht. Die Autoren George RR Martin und John Grisham haben wegen Urheberrechtsansprüchen auch Klage gegen den ChatGPT-Eigentümer OpenAI eingereicht. Aber der NYT-Fall ist nicht „mehr vom Gleichen“, weil er interessante neue Argumente in die Mischung einbringt.

Die Klage konzentriert sich auf der Wert der Trainingsdaten und eine neue Frage im Zusammenhang mit Reputationsschäden. Es handelt sich um eine wirksame Mischung aus Marken und Urheberrechten, die die üblicherweise eingesetzten Fair-Use-Verteidigungsmaßnahmen auf die Probe stellen kann.

Es wird zweifellos von Medienorganisationen genau beobachtet werden, die den üblichen „Lasst uns um Vergebung, nicht um Erlaubnis“-Ansatz in Bezug auf Trainingsdaten in Frage stellen wollen. Trainingsdaten werden zur Verbesserung der Leistung von KI-Systemen verwendet und bestehen im Allgemeinen aus realen Informationen, die häufig aus dem Internet stammen.

Die Klage präsentiert auch ein neuartiges Argument – ​​das in anderen, ähnlichen Fällen nicht vorgebracht wurde – und das mit etwas namens „ „Halluzinationen“, wo KI-Systeme falsche oder irreführende Informationen generieren, diese aber als Tatsachen darstellen. Dieses Argument könnte tatsächlich eines der stärksten in diesem Fall sein.

Insbesondere der NYT-Fall wirft drei interessante Sichtweisen auf den üblichen Ansatz auf. Erstens, dass NYT-Inhalte aufgrund ihres Rufs für vertrauenswürdige Nachrichten und Informationen einen erhöhten Wert und eine erhöhte Attraktivität als Trainingsdaten für die Verwendung in der KI haben.

Zweitens ist die Vervielfältigung von Artikeln auf Anfrage aufgrund der Paywall der NYT kommerziell schädlich. Drittens, das ChatGPT Halluzinationen schädigen den Ruf der New York Times durch falsche Zuschreibungen.

Dies ist nicht nur ein weiterer Urheberrechtsstreit über generative KI. Das erste von der NYT vorgebrachte Argument ist, dass die von OpenAI verwendeten Trainingsdaten urheberrechtlich geschützt sind und sie behaupten daher, dass die Trainingsphase von ChatGPT das Urheberrecht verletzt habe. Wir haben diese Art von Argumentation gesehen laufen vor in anderen Streitigkeiten.

Faire Nutzung?

Die Herausforderung bei dieser Art von Angriff ist die Fair-Use-Schutzschild. In den USA ist „Fair Use“ eine Rechtslehre, die die Verwendung von urheberrechtlich geschütztem Material unter bestimmten Umständen erlaubt, beispielsweise in der Berichterstattung, in wissenschaftlichen Arbeiten und in Kommentaren.

Antwort von OpenAI Bisher war man sehr vorsichtig, aber ein zentraler Grundsatz in einer vom Unternehmen veröffentlichten Erklärung ist, dass die Nutzung von Online-Daten tatsächlich unter den Grundsatz der „fairen Nutzung“ fällt.

Im Vorgriff auf einige der Schwierigkeiten, die eine solche Fair-Use-Verteidigung möglicherweise mit sich bringen könnte, hat die NYT einen etwas anderen Standpunkt eingenommen. Insbesondere versucht es, seine Daten von Standarddaten zu unterscheiden. Die NYT beabsichtigt, die angebliche Genauigkeit, Vertrauenswürdigkeit und das Prestige ihrer Berichterstattung zu nutzen. Es wird behauptet, dass dadurch ein besonders wünschenswerter Datensatz entsteht.

Es argumentiert, dass seine Artikel als seriöse und vertrauenswürdige Quelle zusätzliches Gewicht und Zuverlässigkeit beim Training generativer KI haben und Teil einer Datenteilmenge sind, die bei diesem Training zusätzliches Gewicht erhält.

Es wird argumentiert, dass ChatGPT durch die weitgehende Reproduktion von Artikeln nach Aufforderung in der Lage ist, die NYT zu leugnen, Das ist kostenpflichtig, Besucher und Einnahmen, die es sonst erhalten würde. Diese Einführung eines Aspekts des kommerziellen Wettbewerbs und des kommerziellen Vorteils scheint dazu gedacht zu sein, die übliche Fair-Use-Einrede, die diesen Ansprüchen gemeinsam ist, zu umgehen.

Es wird interessant sein zu sehen, ob die Behauptung einer besonderen Gewichtung in den Trainingsdaten Auswirkungen hat. Wenn dies der Fall ist, eröffnet es anderen Medienorganisationen die Möglichkeit, die Verwendung ihrer Berichterstattung in den Trainingsdaten ohne Erlaubnis anzufechten.

Das letzte Element der Behauptung der NYT bietet einen neuen Blickwinkel auf die Herausforderung. Es deutet darauf hin, dass der Marke NYT durch das von ChatGPT produzierte Material Schaden zugefügt wird. Auch wenn es in der Beschwerde fast wie ein nachträglicher Einfall dargestellt wird, ist es möglicherweise doch die Behauptung, die OpenAI am meisten Schwierigkeiten bereitet.

Dies ist das Argument im Zusammenhang mit KI-Halluzinationen. Die NYT argumentiert, dass dies noch dadurch verschärft wird, dass ChatGPT die Informationen so darstellt, als kämen sie von der NYT.

Die Zeitung weist außerdem darauf hin, dass Verbraucher möglicherweise auf der Grundlage der von ChatGPT bereitgestellten Zusammenfassung handeln und denken, dass die Informationen von der NYT stammen und vertrauenswürdig sind. Der Reputationsschaden entsteht dadurch, dass die Zeitung keine Kontrolle darüber hat, was ChatGPT produziert.

Dies ist eine interessante Herausforderung zum Abschluss. Halluzinationen sind ein bekanntes Problem bei KI-generierten Reaktionen, und die NYT argumentiert, dass der Reputationsschaden möglicherweise nicht einfach zu beheben sei.

Die NYT-Behauptung eröffnet eine Reihe neuartiger Angriffslinien, die den Fokus vom Urheberrecht auf die Art und Weise verlagern, wie die urheberrechtlich geschützten Daten den Benutzern von ChatGPT präsentiert werden, und auf den Wert dieser Daten für die Zeitung. Dies ist für OpenAI viel schwieriger zu verteidigen.

Dieser Fall wird von anderen Medienverlegern genau beobachtet, insbesondere von denjenigen, die hinter Paywalls stehen, und insbesondere im Hinblick darauf, wie er mit der üblichen Fair-Use-Verteidigung interagiert.

Wenn erkannt wird, dass der NYT-Datensatz den „erhöhten Wert“ hat, den er angeblich hat, könnte dies den Weg für die Monetarisierung dieses Datensatzes beim Training von KI ebnen, anstatt den heute vorherrschenden Ansatz „Vergebung, nicht Erlaubnis“ anzuwenden.

Dieser Artikel wird erneut veröffentlicht Das Gespräch unter einer Creative Commons-Lizenz. Lies das Original Artikel.

Bild-Kredit: AbsoluteVision / Unsplash 

Zeitstempel:

Mehr von Singularity Hub