L’UE è pronta ad adottare la prima legislazione al mondo sull’intelligenza artificiale che vieterà il riconoscimento facciale nei luoghi pubblici

L’UE è pronta ad adottare la prima legislazione al mondo sull’intelligenza artificiale che vieterà il riconoscimento facciale nei luoghi pubblici

L'UE è pronta ad adottare la prima legislazione al mondo sull'intelligenza artificiale che vieterà il riconoscimento facciale nei luoghi pubblici PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

L’Unione Europea (UE) è in testa alla corsa per regolamentare l’intelligenza artificiale (AI). Mettendo fine a tre giorni di negoziati, il Consiglio europeo e il Parlamento europeo hanno raggiunto oggi un accordo provvisorio quella che è destinata a diventare la prima regolamentazione completa al mondo sull’intelligenza artificiale.

Carme Artigas, il segretario di Stato spagnolo per la digitalizzazione e l’intelligenza artificiale, ha definito l’accordo un “risultato storico” in a comunicato stampa. Artigas ha affermato che le regole raggiungono un “equilibrio estremamente delicato” tra l’incoraggiare l’innovazione e l’adozione dell’IA sicura e affidabile in tutta l’UE e la protezione dei “diritti fondamentali” dei cittadini.

Il progetto di legge: il Legge sull'intelligenza artificiale– è stata proposta per la prima volta dalla Commissione Europea nell’aprile 2021. Il Parlamento e gli Stati membri dell’UE voteranno per approvare il progetto di legge il prossimo anno, ma le regole non entreranno in vigore fino al 2025.

Un approccio basato sul rischio per regolamentare l’IA

La legge sull’intelligenza artificiale è concepita utilizzando un approccio basato sul rischio, in base al quale quanto maggiore è il rischio posto da un sistema di intelligenza artificiale, tanto più rigorose sono le regole. Per raggiungere questo obiettivo, il regolamento classificherà le IA per identificare quelle che rappresentano “ad alto rischio”.

Le IA ritenute non minacciose e a basso rischio saranno soggette a “obblighi di trasparenza molto leggeri”. Ad esempio, tali sistemi di intelligenza artificiale saranno tenuti a rivelare che il loro contenuto è generato dall’intelligenza artificiale per consentire agli utenti di prendere decisioni informate.

Per le IA ad alto rischio, la legislazione aggiungerà una serie di obblighi e requisiti, tra cui:

Supervisione umana: La legge impone un approccio incentrato sull’uomo, sottolineando meccanismi chiari ed efficaci di supervisione umana dei sistemi di intelligenza artificiale ad alto rischio. Ciò significa avere esseri umani coinvolti nel processo, che monitorano e supervisionano attivamente il funzionamento del sistema di intelligenza artificiale. Il loro ruolo include garantire che il sistema funzioni come previsto, identificare e affrontare potenziali danni o conseguenze indesiderate e, in ultima analisi, assumersi la responsabilità delle sue decisioni e azioni.

Trasparenza e spiegabilità: Demistificare il funzionamento interno dei sistemi di intelligenza artificiale ad alto rischio è fondamentale per creare fiducia e garantire la responsabilità. Gli sviluppatori devono fornire informazioni chiare e accessibili su come i loro sistemi prendono decisioni. Ciò include dettagli sugli algoritmi sottostanti, dati di addestramento e potenziali pregiudizi che potrebbero influenzare i risultati del sistema.

Governance dei dati: L’AI Act enfatizza le pratiche responsabili in materia di dati, con l’obiettivo di prevenire discriminazioni, pregiudizi e violazioni della privacy. Gli sviluppatori devono garantire che i dati utilizzati per addestrare e gestire i sistemi di intelligenza artificiale ad alto rischio siano accurati, completi e rappresentativi. I principi di minimizzazione dei dati sono fondamentali, poiché raccolgono solo le informazioni necessarie per il funzionamento del sistema e riducono al minimo il rischio di uso improprio o violazioni. Inoltre, gli individui devono avere chiari diritti di accesso, rettifica e cancellazione dei propri dati utilizzati nei sistemi di intelligenza artificiale, consentendo loro di controllare le proprie informazioni e garantirne un uso etico.

Gestione del rischio: L’identificazione e la mitigazione proattiva del rischio diventeranno un requisito fondamentale per le IA ad alto rischio. Gli sviluppatori devono implementare solidi quadri di gestione del rischio che valutino sistematicamente potenziali danni, vulnerabilità e conseguenze indesiderate dei loro sistemi.

Timestamp:

Di più da CryptoSlate