Zakaj bo tožbo glede avtorskih pravic v zvezi z umetno inteligenco New York Timesa težko braniti

Zakaj bo tožbo glede avtorskih pravic v zvezi z umetno inteligenco New York Timesa težko braniti

Why the New York Times' AI Copyright Lawsuit Will Be Tricky to Defend PlatoBlockchain Data Intelligence. Vertical Search. Ai.

The New York Times' (NYT) sodni postopek proti OpenAI in Microsoftu je odprl novo mejo v nenehnih pravnih izzivih, ki jih prinaša uporaba avtorsko zaščitenih podatkov za "usposabljanje" ali izboljšanje generativne umetne inteligence.

Obstaja že vrsta tožb proti podjetjem z umetno inteligenco, vključno s tožbo, ki jo je vložilo Getty Images proti stabilnosti AI, ki omogoča spletni generator besedila v sliko Stable Diffusion. Avtorja George RR Martin in John Grisham sta prav tako vložila tožbo proti lastniku ChatGPT OpenAI zaradi zahtevkov glede avtorskih pravic. Toda primer NYT ni "več istega", ker v mešanico vnaša zanimive nove argumente.

Pravni postopek se osredotoča na vrednost podatkov o usposabljanju in novo vprašanje v zvezi s škodo ugleda. Je močna mešanica blagovnih znamk in avtorskih pravic, ki lahko preizkusi obrambo poštene uporabe, na katero se običajno zanašajo.

Brez dvoma ga bodo pozorno spremljale medijske organizacije, ki želijo izpodbijati običajni pristop k podatkom o usposabljanju "prosimo za odpuščanje, ne za dovoljenje". Podatki o usposabljanju se uporabljajo za izboljšanje delovanja sistemov umetne inteligence in so na splošno sestavljeni iz informacij iz resničnega sveta, pogosto pridobljenih iz interneta.

Tožba predstavlja tudi nov argument - ki ga drugi, podobni primeri ne podpirajo - in je povezan z nečim, kar se imenuje "halucinacije," kjer sistemi AI ustvarjajo napačne ali zavajajoče informacije, vendar jih predstavljajo kot dejstva. Ta argument bi dejansko lahko bil eden najmočnejših v tem primeru.

Zlasti primer NYT odpira tri zanimive poglede na običajen pristop. Prvič, zaradi slovesa zaupanja vrednih novic in informacij ima vsebina NYT večjo vrednost in zaželenost kot podatki za usposabljanje za uporabo v AI.

Drugič, zaradi plačljivega zidu NYT je reprodukcija člankov na zahtevo komercialno škodljiva. Tretjič, to ChatGPT halucinacije povzročajo škodo ugledu New York Timesa z dejansko lažnim pripisovanjem.

To ni le še en generativni spor glede avtorskih pravic AI. Prvi argument, ki ga je predstavil NYT, je, da so podatki o usposabljanju, ki jih uporablja OpenAI, zaščiteni z avtorskimi pravicami, zato trdijo, da je faza usposabljanja ChatGPT kršila avtorske pravice. To vrsto argumenta smo videli teči pred v drugih sporih.

Pravična uporaba?

Izziv za to vrsto napada je ščit poštene uporabe. V ZDA je poštena uporaba zakonska doktrina, ki dovoljuje uporabo avtorsko zaščitenega gradiva v določenih okoliščinah, na primer v poročanju novic, akademskem delu in komentarjih.

Odgovor OpenAI do zdaj je bil zelo previden, vendar je ključno načelo v izjavi, ki jo je objavilo podjetje, da njihova uporaba spletnih podatkov dejansko spada pod načelo "poštene uporabe".

V pričakovanju nekaterih težav, ki bi jih takšna obramba poštene uporabe lahko povzročila, je NYT sprejel nekoliko drugačen zorni kot. Zlasti želi razlikovati svoje podatke od standardnih podatkov. NYT namerava uporabiti tisto, za kar trdi, da je točnost, verodostojnost in prestiž svojega poročanja. Trdi, da to ustvari posebej zaželen nabor podatkov.

Trdi, da imajo njegovi članki kot ugleden in zaupanja vreden vir dodatno težo in zanesljivost pri usposabljanju generativne umetne inteligence in so del podatkovne podmnožice, ki ima v tem usposabljanju dodatno težo.

Trdi, da lahko ChatGPT z velikim reproduciranjem člankov na poziv zavrne NYT, ki je plačljiv, obiskovalcev in prihodkov, ki bi jih sicer prejel. Zdi se, da je ta uvedba nekaterih vidikov komercialne konkurence in komercialne prednosti namenjena odpravi običajne obrambe poštene uporabe, ki je skupna tem trditvam.

Zanimivo bo videti, ali ima trditev posebnega ponderiranja v podatkih o usposabljanju vpliv. Če se to zgodi, drugim medijskim organizacijam postavi pot, da izpodbijajo uporabo njihovega poročanja v podatkih o usposabljanju brez dovoljenja.

Zadnji element trditve NYT predstavlja nov vidik izziva. Nakazuje, da se blagovni znamki NYT povzroča škoda z gradivom, ki ga ustvarja ChatGPT. Čeprav je v pritožbi skoraj predstavljena kot naknadna misel, je morda trditev tista, ki OpenAI povzroča največ težav.

To je argument, povezan s halucinacijami AI. NYT trdi, da je to zapleteno, ker ChatGPT predstavlja informacije, kot da prihajajo iz NYT.

Časopis nadalje nakazuje, da lahko potrošniki delujejo na podlagi povzetka, ki ga je dal ChatGPT, saj mislijo, da informacije prihajajo iz NYT in jim je treba zaupati. Škoda za ugled je povzročena, ker časopis nima nadzora nad tem, kaj ustvarja ChatGPT.

To je zanimiv izziv za zaključek. Halucinacije so priznana težava pri odzivih, ki jih ustvari umetna inteligenca, in NYT trdi, da škode za ugled morda ne bo enostavno popraviti.

Trditev NYT odpira številne vrstice novih napadov, ki premaknejo fokus z avtorskih pravic na to, kako avtorsko zaščitene podatke uporabnikom predstavi ChatGPT, in vrednost teh podatkov za časopis. To je za OpenAI veliko težje braniti.

Ta primer bodo pozorno spremljali drugi medijski založniki, zlasti tisti, ki stojijo za plačilnimi zidovi, in še posebej glede na to, kako je povezan z običajno obrambo poštene uporabe.

Če je nabor podatkov NYT priznan kot »izboljšana vrednost«, za katero trdi, da bo to morda utrlo pot za monetizacijo tega nabora podatkov pri usposabljanju AI namesto pristopa »odpuščanje, ne dovoljenje«, ki je danes razširjen.

Ta članek je ponovno objavljen Pogovor pod licenco Creative Commons. Preberi Originalni članek.

Kreditno slike: AbsolutVision / Unsplash 

Časovni žig:

Več od Središče singularnosti