Comico, i romanzieri fanno causa a OpenAI per aver rubato libri

Comico, i romanzieri fanno causa a OpenAI per aver rubato libri

Comici e romanzieri fanno causa a OpenAI per aver rubato i libri PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

IA in breve I pluripremiati romanzieri Paul Tremblay e Mona Awad, e separatamente la comica Sarah Silverman e i romanzieri Christopher Golden e Richard Kadrey, hanno citato in giudizio OpenAI e accusato l'avvio di addestrare ChatGPT sui loro libri senza consenso, violando le leggi sul copyright.

Le cause legali, entrambe intentate presso il tribunale distrettuale settentrionale di San Francisco, affermano che ChatGPT genera riepiloghi accurati dei loro libri e lo evidenziano come prova del fatto che il software viene addestrato sul loro lavoro.

“OpenAI ha fatto copie dei libri dei querelanti durante il processo di addestramento dei modelli linguistici OpenAI senza il permesso dei querelanti. Nello specifico, OpenAI ha copiato almeno il libro del querelante Tremblay La capanna alla fine del mondo; e i libri del querelante Awad 13 modi di guardare una ragazza grassa ed coniglietto," secondo documenti del tribunale [PDF] nel primo seme.

Nel secondo seme, Silvermann et al [PDF], fare affermazioni simili. Il trio si impegna anche ad affermare che i loro libri, incluso il libro di Silverman, un'autobiografia comica intitolata Il Bedwetter, contengono determinate informazioni sulla gestione del copyright che sarebbero state incluse nei libri legittimi e protetti da copyright. Questa è la base del terzo conteggio che sostengono contro OpenAI, un'affermazione che ha violato il DCMA rimuovendo le informazioni sulla gestione del copyright. La causa afferma: "In nessun momento ChatGPT ha riprodotto nessuna delle informazioni sulla gestione del copyright che i querelanti hanno incluso nelle loro opere pubblicate".

OpenAI addestra i suoi modelli di linguaggio di grandi dimensioni estraendo testo da Internet e, sebbene non abbia rivelato esattamente quali risorse ha inghiottito, la startup ha ammesso di addestrare i suoi sistemi su centinaia di migliaia di libri protetti da copyright e archiviati su siti Web come Sci-Hub o Bibliotik. 

Tutti gli autori ritengono che i loro libri siano stati ingeriti da ChatGPT senza il loro permesso e che OpenAI tragga profitto dal loro lavoro senza attribuzione. Hanno avviato un'azione legale collettiva affinché altri autori si uniscano e chiedono danni compensativi e ingiunzioni permanenti per impedire a OpenAI di continuare nelle sue azioni. 

A proposito di OpenAI... Ha rilasciato Code Interpreter, un plug-in per gli abbonati ChatGPT Plus in grado di analizzare i file caricati, consentendo agli utenti di interrogare e modificare i propri documenti, creare grafici e così via. Afferma inoltre di eseguire il codice.

Adobe impedisce ai dipendenti di utilizzare strumenti di IA generativa di terze parti

Il gigante del software Adobe ha vietato ai dipendenti di utilizzare i propri indirizzi e-mail privati ​​o le carte di credito aziendali per registrarsi e pagare prodotti e servizi di machine learning.

Il chief information officer Cindy Stoddard ha avvertito il personale di proteggere i dati del gigante della tecnologia e di non utilizzare strumenti di intelligenza artificiale generativa in un modo che potrebbe danneggiare la sua attività, i clienti o la forza lavoro, Business Insider segnalati.

Adobe non ha vietato completamente le applicazioni di terze parti come ChatGPT, ma ha messo in atto rigide restrizioni su ciò che è e non è consentito su tali sistemi. I dipendenti non devono rivelare le loro richieste di input, caricare dati o codice Adobe privati ​​per generare bozze di e-mail, riepilogare documenti o correggere bug del software.

Dovrebbero anche assicurarsi di rinunciare all'utilizzo dei contenuti delle loro conversazioni come dati di addestramento. Inoltre non possono registrarsi per utilizzare questi strumenti con i propri indirizzi e-mail privati ​​o pagare un abbonamento con le loro carte di credito aziendali (o pagare con una carta personale e richiederne il rimborso come spesa). 

Adobe si unisce a un elenco crescente di aziende tra cui Amazon, Samsunge Apple, che hanno limitato o vietato ai dipendenti l'utilizzo di applicazioni di intelligenza artificiale generativa a causa di problemi di riservatezza dei dati.

Il Dipartimento della Difesa degli Stati Uniti sta testando gli LLM

Il Pentagono sta testando le capacità di cinque grandi modelli linguistici per risolvere compiti basati su testo che potrebbero un giorno aiutare nel processo decisionale e nel combattimento.

I modelli vengono alimentati con documenti top secret e viene loro chiesto di aiutare a pianificare e risolvere scenari ipotetici, come una crisi globale. Alcune attività, come la richiesta di informazioni a specifiche unità militari, a volte possono richiedere al personale ore o giorni per essere completate, ma modelli di linguaggio di grandi dimensioni possono fornire dati in pochi minuti.

Secondo quanto riferito, un test ha effettuato una richiesta in soli dieci minuti. Ma la tecnologia è notoriamente complicata, le sue prestazioni possono dipendere dal modo in cui è formulata la richiesta ed è incline a generare informazioni false. 

“Ciò non significa che sia pronto per la prima serata in questo momento. Ma l'abbiamo appena fatto dal vivo. Lo abbiamo fatto con dati a livello segreto", ha detto Matthew Strohmeyer, un colonnello dell'aeronautica americana, che detto Bloomberg i militari potrebbero presto implementare modelli di linguaggio di grandi dimensioni.

Il Pentagono non ha rivelato quali modelli stavano testando. Scale AI, tuttavia, avrebbe rivelato che uno di questi è il suo sistema Donovan orientato alla difesa. Altri potenziali sistemi potrebbero essere i modelli di OpenAI offerti tramite la piattaforma Azure Government di Microsoft o altri strumenti creati da appaltatori della difesa come Palantir o Anduril. ®

Timestamp:

Di più da Il registro