Meta si trova ad affrontare il controllo legale poiché i progressi dell’intelligenza artificiale sollevano preoccupazioni sulla sicurezza dei bambini

Meta si trova ad affrontare il controllo legale poiché i progressi dell’intelligenza artificiale sollevano preoccupazioni sulla sicurezza dei bambini

Un gruppo di 34 stati degli Stati Uniti sta intentando una causa contro Meta, proprietario di Facebook e Instagram, accusando la società di essere coinvolta in una manipolazione impropria dei minori che utilizzano le piattaforme. Questo sviluppo avviene in modo rapido intelligenza artificiale (AI) progressi che coinvolgono sia il testo che l’intelligenza artificiale generativa.

Rappresentanti legali di vari stati, tra cui California, New York, Ohio, South Dakota, Virginia e Louisiana, asserire che Meta utilizza i suoi algoritmi per favorire comportamenti di dipendenza e avere un impatto negativo sul benessere mentale dei bambini attraverso le sue funzionalità in-app, come il pulsante "Mi piace".

I litiganti del governo lo sono procedere con azioni legali nonostante il capo AI scienziato di Meta ha recentemente parlato, affermando che le preoccupazioni sui rischi esistenziali della tecnologia sono ancora “premature”, e Meta lo ha già fatto hanno sfruttato l’intelligenza artificiale per affrontare i problemi di fiducia e sicurezza sulle sue piattaforme.

Meta si trova ad affrontare il controllo legale mentre i progressi dell'intelligenza artificiale sollevano preoccupazioni sulla sicurezza dei bambini PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.
Screenshot del deposito. Fonte: CourtListener

Gli avvocati degli stati chiedono diversi danni, risarcimenti e risarcimenti per ciascuno stato menzionato nel documento, con cifre che vanno dai 5,000 ai 25,000 dollari per presunto evento. Cointelegraph ha contattato Meta per ulteriori informazioni, ma non ha ancora ricevuto risposta.

Nel frattempo, la Internet Watch Foundation (IWF) con sede nel Regno Unito ha espresso preoccupazione per l’allarmante proliferazione di materiale pedopornografico generato dall’intelligenza artificiale (CSAM). In un recente rapporto, l'IWF ha rivelato la scoperta di oltre 20,254 immagini CSAM generate dall'intelligenza artificiale in un unico forum del dark web in appena un mese, avvertendo che questa ondata di contenuti inquietanti ha il potenziale di inondare Internet.

L’organizzazione ha sollecitato la cooperazione globale per combattere il problema dei materiali pedopornografici, suggerendo una strategia articolata, che includa adeguamenti alle leggi esistenti, miglioramenti nella formazione delle forze dell’ordine e l’implementazione della supervisione normativa per i modelli di intelligenza artificiale.

Correlato: Alcuni ricercatori cinesi hanno sviluppato un motore di correzione delle allucinazioni per i modelli di intelligenza artificiale

Per quanto riguarda gli sviluppatori di intelligenza artificiale, l’IWF consiglia di vietare all’IA di generare contenuti pedopornografici, escludendo i modelli associati e concentrandosi sulla rimozione di tale materiale dai loro modelli.

Il progresso dei generatori di immagini AI ha migliorato significativamente la creazione di repliche umane realistiche. Piattaforme come Midjourney, Runway, Stable Diffusion e Dall-E di OpenAI sono esempi popolari di strumenti in grado di generare immagini realistiche.

Magazine: "L'intelligenza artificiale ha ucciso l'industria": il capo di EasyTranslate sull'adattamento al cambiamento

Timestamp:

Di più da Cointelegraph