OpenAI, Microsoft e GitHub colpiti da una causa contro il copilota PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

OpenAI, Microsoft, GitHub sono stati coinvolti in una causa per Copilot

In breve OpenAI, Microsoft e GitHub sono stati nominati in un'azione legale collettiva sostenendo che il suo software di generazione di codice AI Copilot viola le leggi sul copyright.

L'avvocato e sviluppatore Matthew Butterick ha annunciato il mese scorso di aver collaborato con lo studio legale Joseph Saveri per indagare Copilota. Volevano sapere se e come il software violava i diritti legali dei programmatori raschiando ed emettendo il loro lavoro senza un'adeguata attribuzione con le attuali licenze open source.

Ora, l'azienda ha intentato un'azione legale collettiva presso il tribunale distrettuale della California settentrionale a San Francisco. “Stiamo sfidando la legalità Copilota GitHub”, Butterick disse

“Questo è il primo passo di quello che sarà un lungo viaggio. Per quanto ne sappiamo, questo è il primo caso di azione collettiva negli Stati Uniti che sfida la formazione e la produzione dei sistemi di intelligenza artificiale. Non sarà l'ultimo. I sistemi di IA non sono esenti dalla legge. Coloro che creano e gestiscono questi sistemi devono rimanere responsabili", ha continuato in una dichiarazione.

“Se aziende come Microsoft, GitHub e OpenAI scelgono di ignorare la legge, non dovrebbero aspettarsi che il pubblico resterà fermo. L'IA deve essere equa ed etica per tutti. Se non lo è, allora non potrà mai raggiungere i suoi decantati obiettivi di elevare l'umanità. Diventerà solo un altro modo per pochi privilegiati di trarre profitto dal lavoro di molti”.

La Software Freedom Conservancy, che ha affermato che non avrebbe commentato le rivendicazioni legali nel caso, disse della mossa: "Rileviamo che questa azione è un'azione collettiva", aggiungendo: "Dato che quasi ogni riga di FOSS mai scritta è probabilmente nel set di addestramento di Copilot, è abbastanza probabile che quasi tutti coloro che leggono questo messaggio si ritroveranno a far parte della classe quando il Tribunale certifica la classe. In quanto tale, ognuno di voi, forse in un lontano futuro o forse molto presto, dovrà prendere una decisione se partecipare o meno a questa azione. Anche noi della SFC stiamo prendendo questa decisione in questo momento".

La Scozia staccherà le telecamere di sorveglianza dell'IA cinese

Il Consiglio della città di Edimburgo si è impegnato a demolire le telecamere a circuito chiuso acquistate da HikVision, una società accusata di sorvegliare i musulmani uiguri in Cina utilizzando il riconoscimento facciale.

Ai funzionari è stato chiesto se e quando stavano pianificando di rimuovere l'attrezzatura di HikVision in una riunione del consiglio e hanno confermato: "Dopo il completamento del progetto di aggiornamento delle telecamere a circuito chiuso del regno pubblico, non ci saranno telecamere HikVision presenti sulla rete del regno pubblico", ha detto un rappresentante, secondo a Edimburgo dal vivo.

Il Consiglio della città di Edimburgo ha stimato che ci siano oltre 1,300 telecamere negli edifici comunali, ma non conosceva il numero totale di unità HikVision installate. Secondo quanto riferito, questi sistemi saranno sostituiti con "apparecchiature conformi" entro febbraio 2023 nelle aree pubbliche; non è chiaro quando le telecamere negli edifici comunali verranno tutte sostituite.  

I politici nel Regno Unito hanno esortato il governo a vietare le telecamere a circuito chiuso HikVision dopo che il gruppo di attivisti per la privacy Big Brother Watch ha lanciato una campagna sostenendo che la tecnologia potrebbe introdurre falle di sicurezza ed era legata alle violazioni dei diritti umani dei musulmani uiguri. Negli Stati Uniti, HikVision è stato inserito nella lista delle entità impedendo alle aziende statunitensi di importare prodotti dall'azienda senza esplicita autorizzazione.

OpenAI lancia un nuovo programma di investimento nell'IA; DALL-E è disponibile come API

Converge, il primo programma lanciato dall'OpenAI Startup Fund, donerà 1 milione di dollari e condividerà risorse e competenze per supportare dieci aziende in fase iniziale.

I lavoratori avranno la possibilità di prendere parte a un programma di cinque settimane e avranno accesso ai nuovi modelli di OpenAI prima che vengano rilasciati al pubblico. Ingegneri, leader e ricercatori interessati possono farlo applicare di aderire a Converge prima del 25 novembre.

La mossa è vincente per OpenAI. Le startup potrebbero diventare clienti in futuro, utilizzando le API dell'azienda per creare prodotti. Se non lo fanno, tuttavia, e continuano a crescere e ad avere successo, OpenAI ne trarrà comunque vantaggio anche finanziariamente.

OpenAI anche rilasciato il suo modello da testo a immagine DALL-E come API, questa settimana. L'API Images consentirà agli sviluppatori di integrare DALL-E nelle loro applicazioni. L'API è ancora in modalità beta e inizialmente si limiterà a generare fino a 25 immagini ogni cinque minuti. 

Puoi giocare con Imagen di Google, più o meno

Google sta rilasciando il suo modello di intelligenza artificiale da testo a immagine, Imagen, in un'app mobile che consente agli utenti di generare solo immagini di città e mostri falsi.

Imagen verrà implementato nella sua app AI Test Kitchen, ma la versione installata sarà molto limitata. Le persone che sperano di giocare con lo strumento avranno solo la capacità di evocare immagini create dall'IA usando due modelli chiamati City Dreamer e Wobble.

Puoi selezionare tra diverse opzioni di parole chiave per descrivere un oggetto che Imagen deve generare. Ad esempio, il modello Wobble ti consentirà di scegliere il materiale con cui vuoi che il tuo mostro assomigli come argilla, feltro, marzapane o gomma, The Verge in primo luogo segnalato.

L'app AI Kitchen funge da portale per Google per testare alcuni dei suoi modelli di intelligenza artificiale per il feedback del pubblico. La compagnia è famigerata Chatbot LaMDA è disponibile anche sull'app in forma limitata. I modelli di IA generativa possono essere imprevedibili e possono essere guidati a generare contenuti tossici o offensivi. Limitando le capacità di Imagen, è meno probabile che il modello da testo a immagine di Google sia inappropriato.

Josh Woodward, direttore senior della gestione dei prodotti di Google, ha fornito un esempio di come una richiesta per l'ubicazione di Tulsa, in Oklahoma, potrebbe causare offesa. "Ci sono state una serie di rivolte razziali a Tulsa negli anni '20", ha detto. "E se qualcuno inserisce 'Tulsa', il modello potrebbe non fare nemmeno riferimento a quello e puoi immaginarlo con posti in tutto il mondo". ®

Timestamp:

Di più da Il registro