'Fortæller ikke hele historien': OpenAI udfordrer NYTs krav om ophavsretssag - Dekrypter

'Fortæller ikke hele historien': OpenAI udfordrer NYTs krav om ophavsretssag – Dekrypter

‘Not Telling The Full Story’: OpenAI Challenges NYT's Copyright Lawsuit Claims - Decrypt PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Som svar på en søgsmål anlagt af than New York Times, hvor nyhedsmediet beskyldte OpenAI for at bruge sit nyhedsindhold til at træne sin AI-model, har OpenAI medbragt kvitteringer. Den førende AI-udvikler lænede sig ind i sit ofte erklærede engagement i nyhedsindustrien og erklærede: "Vi støtter journalistik, samarbejder med nyhedsorganisationer og tror på The New York Times retssagen er uden berettigelse."

OpenAI anklagede også New York Times af ufuldstændig rapportering med påstand om, at "den New York Times fortæller ikke hele historien." Virksomheden antyder, at de eksempler, avisen brugte, kom fra ældre artikler, der er bredt tilgængelige på tredjepartswebsteder, og antydede også, at New York Time havde lavet sine AI-prompter for at generere de mest fordømmende beviser.

"Det ser ud til, at de med vilje har manipuleret opfordringer, ofte inkluderet lange uddrag af artikler, for at få vores model til at genoplive," sagde OpenAI og antydede, at New York Times handlet i ond tro ved at give unaturlige tilskyndelser som bevis.

"Selv når vi bruger sådanne prompter, opfører vores modeller sig typisk ikke som de New York Times insinuerer, hvilket antyder, at de enten instruerede modellen til at fortære eller kirsebærplukkede deres eksempler fra mange forsøg."

Hurtig manipulation er en almindelig praksis, hvor folk kan narre en AI-model til at gøre ting, den ikke er programmeret til at gøre, ved at bruge specifikke prompter, der udløser et meget specifikt svar, som ikke ville blive opnået under normale forhold.

OpenAI understregede sit samarbejde med nyhedsindustrien.

"Vi arbejder hårdt i vores teknologidesignproces for at støtte nyhedsorganisationer," skrev virksomheden og fremhævede implementeringen af ​​AI-værktøjer, der hjælper journalister og redaktører, og målet om gensidig vækst for både AI og journalistik. OpenAI dannede for nylig en partnerskab med Axel Springer— udgiver af Rullende sten-for at give mere præcise nyhedsoversigter.

At adressere spørgsmålet om indholds "genopstødning", som New York Times påstået, indrømmer OpenAI, at det er et usædvanligt, men eksisterende problem, som de arbejder på at afhjælpe.

"Memorisering er en sjælden fiasko i læringsprocessen, som vi konstant gør fremskridt med," forklarer de og forsvarede deres træningsmetoder. "Træning af AI-modeller ved hjælp af offentligt tilgængelige internetmaterialer er rimelig brug."

Alligevel anerkendte OpenAI gyldigheden af ​​etiske overvejelser ved at tilbyde en fravalgsproces for udgivere.

AI-træning og indholdslagring

Kampen mellem indholdsskabere og AI-virksomheder ser ud til at være et nulsumsspil for nu, da roden til det hele er den grundlæggende måde, AI-modeller trænes på.

Disse modeller er udviklet ved hjælp af store datasæt, der omfatter tekster fra forskellige kilder, herunder bøger, hjemmesider og artikler. Andre modeller bruger malerier, illustrationer, film, stemmer og sange, alt efter hvad de er trænet i at skabe. Disse modeller beholder dog ikke specifikke artikler eller data. I stedet analyserer de disse materialer for at lære sprogmønstre og strukturer.

Denne proces er afgørende for at forstå karakteren af ​​påstandene og OpenAIs forsvar, og hvorfor AI-trænere mener, at deres virksomheder bruger indhold på en retfærdig måde - svarende til hvordan en kunststuderende studerer en anden kunstner eller kunststil for at forstå dens karakteristika.

Men skabere - inklusive New York Times og bedst sælgende forfattere – hævder, at virksomheder som OpenAI bruger deres indhold i ond tro. De hævder, at deres intellektuelle ejendom bliver udnyttet uden tilladelse eller kompensation, hvilket fører til AI-genererede produkter, der potentielt kan konkurrere med og aflede publikum fra deres originale indhold.

New York Times sagsøgte OpenAI og sagde, at brugen af ​​deres indhold uden udtrykkelig tilladelse underbyder værdien af ​​original journalistik, hvilket understreger den potentielle negative indvirkning på produktionen af ​​uafhængig journalistik og dens omkostninger for samfundet. Og det kan hævdes, uanset hvor uddybet prompten er, hvis den "genoplivede" enhver form for ophavsretligt beskyttet indhold, er det fordi det blev brugt.

Om det er blevet brugt retfærdigt eller uretfærdigt er op til domstolene at afgøre.

Denne juridiske kamp er en del af en lovlig bevægelse som kunne forme fremtiden for kunstig intelligens, copyright-love og journalistik. Efterhånden som sagen udvikler sig, vil den uden tvivl påvirke samtalen omkring integrationen af ​​AI i indholdsskabelse og rettighederne for ejere af intellektuelle ejendomsrettigheder i den digitale æra.

Alligevel mener OpenAI ikke, at dette er et nulsumsscenarie. På trods af at have kritiseret retssagens nøglepunkter, sagde Altmans firma, at det er klar til at udvide en olivengren og finde et positivt resultat et eller andet sted.

"Vi håber på et konstruktivt samarbejde med New York Times og respekter dets lange historie, som inkluderer rapportering af det første fungerende neurale netværk for over 60 år siden og forkæmper for første ændringsfrihed."

Redigeret af Ryan Ozawa.

Hold dig opdateret med kryptonyheder, få daglige opdateringer i din indbakke.

Tidsstempel:

Mere fra Dekryptér