NYT reagerer på OpenAIs påstande om ChatGPT-manipulation

NYT reagerer på OpenAIs påstande om ChatGPT-manipulation

NYT reagerer på OpenAI's påstande om ChatGPT-manipulation PlatoBlockchain Data Intelligence. Lodret søgning. Ai.

New York Times har skudt endnu en lovlig salve tilbage på OpenAI, efter at ChatGPT-producenten anklagede den for at manipulere chatboten for at genvinde mediegruppens indhold.

Parret er i øjeblikket låst i en kamp, ​​efter at publikationen beskyldte OpenAI for krænkelse af ophavsretten for angiveligt at bruge "millioner" af NYT's artikler til at træne store sprogmodeller.

I sin seneste arkivering, et svar på OpenAI's flytter til afskedigelse dele af sagen i sidste måned, genmæler NYT, at OpenAI's forsvar "mere lignede spin end en juridisk brief", og siger, at "OpenAIs opsigtsvækkende påstand om, at The Times 'hackede' sine produkter ... er lige så irrelevant, som den er falsk. ”

Det hævder også, at AI-virksomheden, hvori Microsoft har investeret massivt (op mod $10 milliarder), havde ikke engang berørt hovedpåstanden om, at NYT's ophavsret blev krænket ved at trække indholdet til at træne og betjene AI-modeller.

"OpenAI," siger ansøgningen, "bevæger sig ikke for at afvise hovedpåstanden om, at den krænkede The Times' ophavsrettigheder til at træne og betjene sine nyeste modeller."

Den tilføjer: "OpenAI's sande klagepunkt handler ikke om, hvordan The Times udførte sin undersøgelse, men i stedet hvad den undersøgelse afslørede: at tiltalte byggede deres produkter ved at kopiere The Times' indhold i et hidtil uset omfang - et faktum, som OpenAI ikke og ikke kan bestride ."

Registreringen fortsætter:

…The Times fremkaldte eksempler på memorisering ved at spørge GPT-4 med de første par ord eller sætninger i Times-artikler. Det arbejde var kun nødvendigt, fordi OpenAI ikke afslører det indhold, det bruger til at træne sine modeller og drive sine brugervendte produkter. Alligevel er det OpenAI, der fortæller, at The Times engagerede sig i forseelser ved at opdage OpenAI's tyveri af The Times' eget ophavsretligt beskyttede indhold.

Sagen går tilbage til december 2023, hvor NYT sagsøgte først Microsoft og OpenAI for krænkelse af ophavsretten. Hovedpåstanden i klagen er, at NYT-indhold var blevet brugt i træningen af ​​OpenAIs modeller uden tilladelse. I klagen gav NYT eksempler på indhold, der blev gengivet af ChatGPT.

I februar 2024, OpenAI svarede at NYT må have brugt nogen til at "hacke" ChatGPT for at få det til at gengive NYT-indhold og nægtede, at ChatGPT kunne bruges til at undvige NYT-betalingsmuren.

"I den virkelige verden bruger folk ikke ChatGPT eller noget andet OpenAI-produkt til det formål," sagde OpenIAI. »Det kunne de heller ikke. I almindelighed kan man ikke bruge ChatGPT til at servere Times-artikler efter behag.”

Microsoft vejede i begyndelsen af ​​marts 2024 med en svar til NYT's påstand om, at brugen af ​​GPT-baserede produkter truede uafhængig journalistik. I ansøgningen sammenlignede Microsofts advokater striden med forsøg fra Motion Picture Association på at kvæle væksten af ​​VCR-teknologi i 1980'erne og beskrev NYT's påstande som "dommedagsfuturologi."

På det tidspunkt sagde Ian Crosby, ledende rådgiver for NYT: "Microsoft bestrider ikke, at det arbejdede sammen med OpenAI for at kopiere millioner af The Times' værker uden dets tilladelse til at bygge dets værktøjer.

"I stedet sammenligner den mærkeligt LLM'er med videobåndoptageren, selvom videobåndoptagere aldrig har argumenteret for, at det var nødvendigt at engagere sig i massive ophavsretskrænkelser for at bygge deres produkter."

Registret kontaktede OpenAI for sit svar på denne seneste ansøgning og vil opdatere denne artikel, hvis virksomheden svarer. ®

Tidsstempel:

Mere fra Registret