Miks on New York Timesi AI autoriõiguse hagi kaitsmine keeruline?

Miks on New York Timesi AI autoriõiguse hagi kaitsmine keeruline?

Why the New York Times' AI Copyright Lawsuit Will Be Tricky to Defend PlatoBlockchain Data Intelligence. Vertical Search. Ai.

New York Timesi (NYT) kohtumenetlus OpenAI vastu ja Microsoft on avanud uue piiri käimasolevates juriidilistes väljakutsetes, mis tulenevad autoriõigustega kaitstud andmete kasutamisest generatiivse AI "koolitamiseks" või täiustamiseks.

AI-ettevõtete vastu on juba algatatud mitmesuguseid kohtuasju, sealhulgas üks nende algatatud Getty Images stabiilsuse AI vastu, mis teeb Stable Diffusion veebipõhise teksti-pildi generaatori. Autorid George RR Martin ja John Grisham on esitanud ka ChatGPT omaniku OpenAI vastu kohtuasju seoses autoriõiguse nõuetega. Kuid NYT-i juhtum ei ole "rohkem sama", sest see viskab segusse huvitavaid uusi argumente.

Õiguslik hagi keskendub sellele koolitusandmete väärtus ja uus mainekahjuga seotud küsimus. See on kaubamärkide ja autoriõiguste võimas segu, mis võib testida õiglase kasutamise kaitsemehhanisme, millele tavaliselt tuginetakse.

Kahtlemata jälgivad seda tähelepanelikult meediaorganisatsioonid, kes soovivad vaidlustada tavapärase „palume andestust, mitte luba“ lähenemisviisi koolitusandmetele. Treeningandmeid kasutatakse tehisintellektisüsteemide jõudluse parandamiseks ja need koosnevad tavaliselt tegelikust teabest, mis on sageli ammutatud Internetist.

Hagi esitab ka uudse argumendi – mida ei esitanud teised sarnased juhtumid –, mis on seotud millegi nn. "hallutsinatsioonid" kus tehisintellekti süsteemid genereerivad vale või eksitavat teavet, kuid esitavad seda faktina. See argument võib tegelikult olla juhtumi üks tugevamaid.

Eelkõige NYT juhtum tõstatab kolm huvitavat tavapärast lähenemist. Esiteks, tänu nende usaldusväärsete uudiste ja teabe mainele on NYT-i sisul tehisintellektis kasutamiseks mõeldud koolitusandmetena suurem väärtus ja ihaldusväärne.

Teiseks on NYT-i palgamüüri tõttu artiklite nõudmisel paljundamine äriliselt kahjulik. Kolmandaks, see ChatGPT hallutsinatsioonid kahjustavad New York Timesi mainet tegelikult vale omistamise kaudu.

See ei ole lihtsalt järjekordne generatiivne AI autoriõiguste vaidlus. NYT-i esimene argument on see, et OpenAI kasutatavad koolitusandmed on autoriõigusega kaitstud ja seega väidavad nad, et ChatGPT koolitusetapp rikub autoriõigusi. Oleme seda tüüpi argumente näinud joosta enne muudes vaidlustes.

Õiglane kasutamine?

Seda tüüpi rünnakute väljakutseks on õiglase kasutamise kilp. USA-s on õiglane kasutamine seadusandlik doktriin, mis lubab teatud tingimustel kasutada autoriõigustega kaitstud materjali, näiteks uudistes, akadeemilises töös ja kommentaarides.

OpenAI vastus seni on olnud väga ettevaatlik, kuid ettevõtte avaldatud avalduses on peamine põhimõte, et nende võrguandmete kasutamine kuulub tõepoolest "ausa kasutamise" põhimõtte alla.

Ennustades mõningaid raskusi, mida selline õiglase kasutamise kaitse võib potentsiaalselt põhjustada, on NYT võtnud kasutusele veidi teistsuguse nurga. Eelkõige püüab see eristada oma andmeid standardandmetest. NYT kavatseb kasutada oma väidetavalt oma aruandluse täpsust, usaldusväärsust ja prestiiži. Ta väidab, et see loob eriti ihaldusväärse andmestiku.

Ta väidab, et maineka ja usaldusväärse allikana on selle artiklitel generatiivse tehisintellekti treenimisel täiendav kaal ja usaldusväärsus ning need on osa andmete alamhulgast, millele antakse koolitusel täiendav kaal.

Ta väidab, et kuna ChatGPT esitab suures osas artikleid küsimise peale, suudab ta keelata NYT, mis on tasulise seinaga, külastajaid ja tulu, mida see muidu saaks. Kommertskonkurentsi ja ärilise eelise mõne aspekti tutvustamine näib olevat mõeldud nende väidete tavapärase õiglase kasutamise kaitse peatamiseks.

Huvitav on näha, kas treeningandmete erikaalu kinnitamine mõjutab. Kui see nii on, loob see tee teistele meediaorganisatsioonidele vaidlustada oma aruandluse kasutamist koolitusandmetes ilma loata.

NYT-i väite viimane element kujutab väljakutsele uudset vaatenurka. See viitab sellele, et ChatGPT toodetud materjalid kahjustavad NYT kaubamärki. Kuigi kaebuses esitati see peaaegu järelmõtlejana, võib OpenAI-le kõige rohkem raskusi tekitada siiski väide.

See argument on seotud AI hallutsinatsioonidega. NYT väidab, et see on veelgi keerulisem, kuna ChatGPT esitleb teavet NYT-lt pärinevana.

Ajaleht soovitab lisaks, et tarbijad võivad tegutseda ChatGPT kokkuvõtte põhjal, arvates, et teave pärineb NYT-st ja seda tuleb usaldada. Mainekahju põhjustab see, et ajaleht ei oma kontrolli ChatGPT toodangu üle.

See on huvitav väljakutse, millega lõpetada. Hallutsinatsioonid on AI tekitatud vastuste puhul tunnustatud probleem ja NYT väidab, et mainekahju ei pruugi olla lihtne parandada.

NYT-i nõue avab hulga uudseid rünnakuid, mis keskenduvad autoriõiguselt sellele, kuidas ChatGPT autoriõigustega kaitstud andmeid kasutajatele esitab, ja nende andmete väärtust ajalehele. Seda on OpenAI-l palju keerulisem kaitsta.

Seda juhtumit jälgivad tähelepanelikult ka teised meediaväljaandjad, eriti need, kes on tasuliste müüride taga, ning pööravad erilist tähelepanu sellele, kuidas see suhtleb tavapärase õiglase kasutamise kaitsega.

Kui tunnistatakse, et NYT-i andmestikul on väidetavalt „täiustatud väärtus”, võib see sillutada teed selle andmestiku monetiseerimiseks tehisintellekti treenimisel, mitte tänapäeval levinud lähenemisviisil „andestamine, mitte luba”.

See artikkel avaldatakse uuesti Vestlus Creative Commonsi litsentsi all. Loe algse artikli.

Image Credit: AbsolutVision / Unsplash 

Ajatempel:

Veel alates Singulaarsuse keskus