Miksi New York Timesin tekoälyn tekijänoikeusjuttua on vaikea puolustaa

Miksi New York Timesin tekoälyn tekijänoikeusjuttua on vaikea puolustaa

Miksi New York Timesin tekoälyn tekijänoikeusjuttu on hankala puolustaa PlatoBlockchain Data Intelligenceä? Pystysuuntainen haku. Ai.

New York Timesin (NYT) oikeudelliset menettelyt OpenAI:ta vastaan ​​ja Microsoft on avannut uuden rajan meneillään oleville oikeudellisille haasteille, jotka aiheutuvat tekijänoikeudella suojatun datan käytöstä luovan tekoälyn "kouluttamiseen" tai parantamiseen.

Tekoälyyrityksiä vastaan ​​on jo nostettu useita kanteita, joista yksi on nostettu Getty Images Stability AI:tä vastaan, joka tekee Stable Diffusionin online-teksti-kuvageneraattorin. Tekijät George RR Martin ja John Grisham ovat myös nostaneet oikeusjuttuja ChatGPT:n omistajaa OpenAI:ta vastaan ​​tekijänoikeusvaatimuksista. Mutta NYT-tapaus ei ole "enemmän samaa", koska se heittää mielenkiintoisia uusia argumentteja sekoitukseen.

Oikeustoimi keskittyy siihen koulutustietojen arvo ja uusi mainevaurioita koskeva kysymys. Se on tehokas sekoitus tavaramerkkejä ja tekijänoikeuksia, ja se voi testata tyypillisesti käytettyjä reilun käytön suojakeinoja.

Mediaorganisaatiot tulevat epäilemättä seuraamaan sitä tiiviisti, jotka haluavat haastaa koulutusdataan tavanomaisen "pyydämme anteeksi, ei lupaa" -lähestymistavan. Harjoitusdataa käytetään tekoälyjärjestelmien suorituskyvyn parantamiseen, ja se koostuu yleensä todellisesta tiedosta, joka on usein saatu Internetistä.

Oikeusjuttu esittelee myös uuden väitteen – jota ei ole esitetty muissa samankaltaisissa tapauksissa – joka liittyy johonkin ns. "hallusinaatiot" joissa tekoälyjärjestelmät tuottavat vääriä tai harhaanjohtavia tietoja, mutta esittävät sen tosiasiana. Tämä argumentti voisi itse asiassa olla yksi vahvimmista tässä tapauksessa.

Erityisesti NYT-tapaus nostaa esiin kolme mielenkiintoista tavanomaista lähestymistapaa. Ensinnäkin, koska NYT:n sisältö on tunnettu luotettavista uutisista ja tiedoista, se on lisännyt arvoa ja haluttavuutta tekoälyn harjoitustietona.

Toiseksi, että NYT:n maksumuurin vuoksi artikkelien toisintaminen pyynnöstä on kaupallisesti haitallista. Kolmanneksi tuo ChatGPT hallusinaatiot aiheuttavat New York Times -lehden mainevaurioita tosiasiallisesti väärien attribuutien kautta.

Tämä ei ole vain uusi generatiivinen tekoälyn tekijänoikeuskiista. Ensimmäinen NYT:n esittämä argumentti on, että OpenAI:n käyttämät koulutustiedot ovat tekijänoikeudella suojattuja, joten he väittävät ChatGPT:n harjoitusvaiheen loukkaavan tekijänoikeuksia. Olemme nähneet tämän tyyppisiä väitteitä juosta ennen muissa riita-asioissa.

Reilu käyttö?

Tämän tyyppisen hyökkäyksen haaste on reilun käytön kilpi. Yhdysvalloissa kohtuullinen käyttö on lakisääteinen oppi, joka sallii tekijänoikeudella suojatun materiaalin käytön tietyissä olosuhteissa, kuten uutisraportoinnissa, akateemisessa työssä ja kommenteissa.

OpenAI:n vastaus toistaiseksi on ollut hyvin varovainen, mutta yrityksen julkilausuman keskeinen periaate on, että heidän verkkotietojen käyttö kuuluu "reilun käytön" periaatteen alle.

Ennakoimalla joitain vaikeuksia, joita tällainen reilun käytön puolustus voisi mahdollisesti aiheuttaa, NYT on omaksunut hieman erilaisen näkökulman. Se pyrkii erityisesti erottamaan tietonsa vakiotiedoista. NYT aikoo käyttää väittämästään raportointinsa tarkkuutta, luotettavuutta ja arvovaltaa. Se väittää, että tämä luo erityisen halutun tietojoukon.

Se väittää, että hyvämaineisena ja luotettavana lähteenä sen artikkeleilla on lisäpainoa ja luotettavuutta generatiivisen tekoälyn koulutuksessa ja ne ovat osa data-alajoukkoa, jolle annetaan lisäpainoa kyseisessä koulutuksessa.

Se väittää, että toistamalla artikkeleita suurelta osin kehotuksesta ChatGPT pystyy kieltämään NYT:n, joka on maksumuurettu, kävijöitä ja tuloja, jotka se muuten saisi. Tämä joidenkin kaupallisen kilpailun ja kaupallisen edun näkökohtien esittely näyttää olevan tarkoitettu karkottamaan näille väitteille yhteistä tavanomaista reilun käytön puolustamista.

On mielenkiintoista nähdä, onko erityispainotuksen väittämisellä harjoitustiedoissa vaikutusta. Jos näin tapahtuu, se antaa muille mediaorganisaatioille mahdollisuuden haastaa raportointinsa käyttö koulutustiedoissa ilman lupaa.

NYT:n väitteen viimeinen osa tarjoaa uudenlaisen näkökulman haasteeseen. Se viittaa siihen, että ChatGPT:n tuottaman materiaalin kautta NYT-brändille tehdään vahinkoa. Vaikka se esitettiin valituksessa melkein jälkiajatuksena, se saattaa silti olla väite, joka aiheuttaa OpenAI: lle eniten hankaluuksia.

Tämä on tekoälyn hallusinaatioihin liittyvä argumentti. NYT väittää, että tämä on monimutkaista, koska ChatGPT esittää tiedon tulleen NYT:ltä.

Lehti ehdottaa lisäksi, että kuluttajat voivat toimia ChatGPT:n yhteenvedon perusteella luullen, että tieto tulee NYT:stä ja siihen on luotettava. Mainevaurio johtuu siitä, että sanomalehdellä ei ole valtaa ChatGPT:n tuottamiseen.

Tämä on mielenkiintoinen haaste päättää. Hallusinaatiot ovat tunnustettu ongelma tekoälyn tuottamissa reaktioissa, ja NYT väittää, että mainevaurioita ei ehkä ole helppo korjata.

NYT-vaatimus avaa useita uusia hyökkäyslinjoja, jotka siirtävät huomion tekijänoikeuksista siihen, miten ChatGPT esittää tekijänoikeudella suojatut tiedot käyttäjille, ja näiden tietojen arvoon sanomalehdelle. OpenAI:n on paljon vaikeampi puolustaa tätä.

Muut mediajulkaisijat, erityisesti maksumuurin takana olevat, seuraavat tapausta tiiviisti, ja erityisesti sen vuorovaikutuksessa tavanomaisen reilun käytön puolustamisen kanssa.

Jos NYT-tietojoukolla tunnustetaan olevan "parannettu arvo", jonka se väittää, se voi tasoittaa tietä kyseisen tietojoukon kaupallistamiselle AI-koulutuksessa nykyisen "anteeksianto, ei lupa" -lähestymistavan sijaan.

Tämä artikkeli julkaistaan ​​uudelleen Conversation Creative Commons -lisenssin alla. Lue alkuperäinen artikkeli.

Kuva pistetilanne: AbsolutVision / Unsplash 

Aikaleima:

Lisää aiheesta Singulaarisuus Hub