Meta è stata colpita da otto cause legali secondo cui i social media danneggiano i bambini. PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Meta ha sbattuto con otto cause legali sostenendo che i social media feriscono i bambini

In breve La società madre di Facebook e Instagram, Meta, è stata colpita non da una, non due, ma otto diverse cause che accusavano il suo algoritmo di social media di causare danni reali ai giovani utenti negli Stati Uniti. 

Le denunce presentate la scorsa settimana affermano che le piattaforme di social media di Meta sono state progettate per creare una pericolosa dipendenza, spingendo bambini e adolescenti a visualizzare contenuti che aumentano il rischio di disturbi alimentari, suicidio, depressione e disturbi del sonno. 

"L'uso dei social media tra i giovani dovrebbe essere visto come un importante contributo alla crisi di salute mentale che affrontiamo nel paese", disse Andy Birchfield, un avvocato che rappresenta lo studio legale Beasley Allen, che guida i casi, in una dichiarazione.

“Queste applicazioni avrebbero potuto essere progettate per ridurre al minimo qualsiasi potenziale danno, ma invece è stata presa una decisione per gli adolescenti con dipendenza aggressiva in nome dei profitti aziendali. È tempo che questa azienda riconosca le crescenti preoccupazioni sull'impatto dei social media sulla salute mentale e sul benessere di questa parte più vulnerabile della nostra società e modifichi gli algoritmi e gli obiettivi aziendali che hanno causato così tanti danni".

Le cause sono state intentate presso i tribunali federali di Texas, Tennessee, Colorado, Delaware, Florida, Georgia, Illinois e Missouri, secondo a Bloomberg. 

Quanto sono davvero sicuri i veicoli autonomi?

La sicurezza del software per auto a guida autonoma come l'Autopilot di Tesla è difficile da valutare, considerando che ci sono pochi dati resi pubblici e le metriche utilizzate per tali valutazioni sono fuorvianti. 

Le aziende che sviluppano veicoli autonomi in genere segnalano il numero di miglia percorse dalla tecnologia di guida autonoma prima che i conducenti umani debbano subentrare per prevenire errori o incidenti. I dati, ad esempio, mostrano un minor numero di incidenti che si verificano quando viene attivata la modalità Autopilota di Tesla. Ma non significa necessariamente che sia più sicuro, sostengono gli esperti. 

È più probabile che l'autopilota sia ottimizzato per la guida in autostrada, dove le condizioni sono meno complesse da gestire per il software che per spostarsi in una città frenetica. Tesla e altre aziende automobilistiche non condividono i dati per la guida su strade specifiche per un confronto migliore. 

"Sappiamo che le auto che utilizzano il pilota automatico si schiantano meno spesso rispetto a quando non viene utilizzato il pilota automatico", Noah Goodall, ricercatore del Virginia Transportation Research Council, detto il New York Times. “Ma vengono guidati allo stesso modo, sulle stesse strade, alla stessa ora del giorno, dagli stessi conducenti?.”

La National Highway Traffic Safety Administration ha ordinato alle aziende di segnalare gravi incidenti che coinvolgono auto a guida autonoma entro 24 ore dall'incidente verificatosi l'anno scorso. Ma nessuna informazione è stata ancora resa pubblica.

Il nuovo arrivato dell'IA accusato di utilizzare di nascosto il lavoro umano dietro la tecnologia autonoma

Nate, una startup del valore di oltre $ 300 milioni che afferma di utilizzare l'intelligenza artificiale per compilare automaticamente le informazioni di pagamento degli acquirenti sui siti Web di vendita al dettaglio, in realtà paga i lavoratori per inserire manualmente i dati per $ 1.

Comprare roba su Internet può essere noioso. Devi inserire il tuo nome, indirizzo, dettagli della carta di credito se un sito web non ha salvato le informazioni. Nate è stato creato per aiutare i netizen a evitare di doverlo fare ogni volta che visitano un negozio online. Descritta come un'app AI, Nate ha affermato di aver utilizzato metodi automatizzati per compilare i dati personali dopo che un consumatore ha effettuato un ordine.

Ma il software è stato difficile da sviluppare, considerando le varie combinazioni di pulsanti che gli algoritmi devono premere e le precauzioni in atto sui siti Web per fermare bot e scalper. Per cercare di attirare più consumatori verso l'app, Nate ha offerto alla gente $ 50 da spendere online in negozi come Best Buy e Walmart. Ma il nuovo arrivato ha lottato per far funzionare la sua tecnologia per soddisfarli correttamente. 

Il modo migliore per farlo? Fai finta. Invece, Nate si è rivolto all'assunzione di lavoratori nelle Filippine per inserire manualmente le informazioni private dei consumatori; gli ordini a volte venivano completati ore dopo essere stati effettuati, secondo all'Informazione. Si presume che dal 60 al 100 percento degli ordini venissero elaborati manualmente. Un portavoce del nuovo arrivato ha affermato che il rapporto era "errato e le affermazioni che mettono in dubbio la nostra tecnologia proprietaria sono completamente prive di fondamento".

DARPA vuole che l'IA sia più affidabile

Il braccio di ricerca militare statunitense, DARPA, ha lanciato un nuovo programma per finanziare lo sviluppo di algoritmi di intelligenza artificiale neuro-simbolica ibrida nella speranza che la tecnologia porti a sistemi più affidabili.

Il deep learning moderno viene spesso definito una "scatola nera", i suoi meccanismi interni sono opachi e gli esperti spesso non capiscono come le reti neurali arrivino a un output dato un input specifico. La mancanza di trasparenza significa che i risultati sono difficili da interpretare, il che rende rischioso l'implementazione in alcuni scenari. Alcuni credono che l'incorporazione di tecniche di ragionamento simbolico vecchio stile più tradizionali potrebbe rendere i modelli più affidabili. 

"Motivare nuove idee e approcci in questo spazio contribuirà a garantire che i sistemi autonomi funzionino in sicurezza e funzionino come previsto", disse Sandeep Neema, responsabile del programma del nuovo programma di apprendimento e ragionamento neuro simbolico assicurato della DARPA. "Questo sarà parte integrante della fiducia, che è la chiave per l'adozione di successo dell'autonomia da parte del Dipartimento della Difesa".

L'iniziativa finanzierà la ricerca sulle architetture ibride che sono una miscela di sistemi simbolici e IA moderna. La DARPA è particolarmente interessata alle applicazioni rilevanti per l'esercito, come un modello in grado di rilevare se entità sono amichevoli, avversarie o neutrali, ad esempio, oltre a rilevare aree pericolose o sicure in combattimento. ®

Timestamp:

Di più da Il registro