Il garante della privacy esorta le aziende ad abbandonare il software AI di analisi emotiva PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Il controllo della privacy esorta le aziende a rinunciare al software AI per l'analisi emotiva

Le aziende dovrebbero pensarci due volte prima di implementare sistemi di analisi emotiva basati sull'intelligenza artificiale soggetti a pregiudizi sistemici e altri problemi, ha avvertito questa settimana l'Information Commissioner's Office (ICO) del Regno Unito.

Le organizzazioni devono affrontare indagini se continuano e utilizzano questa tecnologia scadente che mette a rischio le persone, ha aggiunto il watchdog.

Gli algoritmi di apprendimento automatico che pretendono di prevedere gli stati d'animo e le reazioni di una persona utilizzano la visione artificiale per tracciare sguardi, movimenti facciali ed elaborazione audio per valutare l'inflessione e il sentimento generale. Come si può immaginare, non è necessariamente accurato o corretto e potrebbero esserci problemi di privacy nella gestione dei dati per l'addestramento e l'inferenza.

In effetti, il vice commissario dell'ICO Stephen Bonner ha affermato che la tecnologia non è infallibile, portando a pregiudizi sistemici, imprecisioni o discriminazioni contro specifici gruppi sociali. “Gli sviluppi nel mercato della biometria e dell'intelligenza artificiale per le emozioni sono immaturi. Potrebbero non funzionare ancora, o addirittura mai", ha detto disse in un comunicato. 

“Anche se ci sono opportunità presenti, i rischi sono attualmente maggiori. All'ICO, siamo preoccupati che un'analisi errata dei dati possa portare a ipotesi e giudizi su una persona che sono imprecisi e portano a discriminazioni", ha continuato la sua dichiarazione.

Bonner ha notato che il software di analisi emotiva è spesso abbinato a sistemi biometrici, raccogliendo e archiviando una gamma più ampia di informazioni personali oltre alle immagini facciali. I fornitori di software spesso non sono trasparenti su come questi dati personali vengono elaborati o salvati. 

"Le uniche implementazioni biometriche sostenibili saranno quelle completamente funzionali, responsabili e supportate dalla scienza", ha affermato. "Allo stato attuale, non abbiamo ancora visto alcuna tecnologia di intelligenza artificiale sviluppata in modo da soddisfare i requisiti di protezione dei dati e abbiamo domande più generali sulla proporzionalità, l'equità e la trasparenza in quest'area".

Il che sembra un modo educato per dire: dovresti usare solo modelli di intelligenza artificiale per la lettura delle emozioni che funzionano come si aspetta l'ICO, e quei modelli non esistono, quindi dovresti semplicemente interrompere quello che stai facendo.

L'organismo di vigilanza sulla privacy dei dati della Gran Bretagna dovrebbe pubblicare un rapporto che descriva in dettaglio come i dati biometrici, incluso il riconoscimento facciale, l'identificazione delle impronte digitali e il riconoscimento vocale dovrebbero essere gestiti dalle aziende il prossimo anno in primavera.

"L'ICO continuerà a esaminare attentamente il mercato, identificando le parti interessate che stanno cercando di creare o implementare queste tecnologie e spiegando l'importanza di una maggiore privacy e conformità dei dati, incoraggiando al contempo la fiducia nel funzionamento di questi sistemi", ha aggiunto Bonner.

Gli esperti hanno lanciato l'allarme per anni sull'analisi dei sentimenti e delle emozioni. I sentimenti sono soggettivi ed è difficile interpretarli accuratamente. Gli esseri umani spesso non possono farlo in modo efficace per se stessi o per gli altri, per non parlare delle macchine. ®

Timestamp:

Di più da Il registro