Il Parlamento europeo adotta finalmente la legge sull’intelligenza artificiale, 3 anni dopo

Il Parlamento europeo adotta finalmente la legge sull’intelligenza artificiale, 3 anni dopo

Il Parlamento europeo adotta finalmente la legge sull'intelligenza artificiale, 3 anni dopo PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

L'Unione Europea ha approvato la legge sull'intelligenza artificiale, che diventa la prima legge al mondo a regolamentare una tecnologia in rapida crescita, dopo che mercoledì il Parlamento europeo ha votato a suo favore.

Tre anni dopo e con 800 emendamenti, la legge fisserà dei limiti per lo sviluppo e l’implementazione della tecnologia dell’intelligenza artificiale.

Con l’adozione della legge, i sistemi di intelligenza artificiale devono affrontare un controllo più accurato in base a quanto siano considerati rischiosi, mentre si esercita pressione su altri paesi affinché seguano l’esempio.

Una vasta gamma di settori coperti dalla legge

La legge, introdotta per la prima volta nel 2021, cerca di fornire un “approccio basato sul rischio alla regolamentazione dell’intelligenza artificiale senza soffocare l’innovazione in tutto il blocco dei 27 paesi”.

Oltre a fissare requisiti di trasparenza, il Legge copre anche una serie di argomenti relativi al diritto d'autore, alla privacy dei dati, alla proprietà intellettuale, alla salute e alla sicurezza, nonché ad altre questioni etiche.

Un’altra area che la legge affronterà è la questione dei deepfake, mentre qualsiasi contenuto relativo alle elezioni richiederà “dichiarazioni chiare che etichettano immagini, video e audio come generati dall’intelligenza artificiale”. In tutto il mondo, la questione di deepfakes è stato di attualità e una priorità soprattutto con le elezioni che si sono svolte in molti paesi quest'anno, le prime elezioni importanti dal lancio del ChatGPT di OpenAI, che ha stimolato un'esplosione della generazione di IA.

Parlando ad una conferenza stampa prima della votazioneIl deputato belga del Parlamento europeo Dragos Tudorache ha affermato che i legislatori vogliono “creare facilitatori” per le imprese dell’UE, aumentando al tempo stesso la protezione delle persone.

Tudorache, che è stato correlatore della legge insieme al deputato italiano Brando Benifei, ha affermato che le aziende hanno spinto per mantenere intatti i modelli di intelligenza artificiale “scatola nera”, ma i legislatori erano consapevoli che le regole di trasparenza su dati e contenuti sarebbero state importanti.

"È l'unico modo per dare effetto ai diritti degli autori là fuori o qualunque essi siano, scienziati e medici", ha detto Tudorache.

“Come potrebbero altrimenti sapere se il loro lavoro è stato utilizzato in un algoritmo di addestramento che è poi in grado di riprodurre o emulare il tipo di creazione?”

Leggi anche: Protezione vocale AI interrogata dalle autorità giudiziarie

Altri passi ancora da compiere

Secondo CBSAustin, c’è ancora molto da fare prima che la legge diventi pienamente operativa nel blocco UE. Non è ancora chiaro quando verrà implementato a causa dei continui cambiamenti nel settore dell’intelligenza artificiale.

"Dobbiamo vedere come i cambiamenti nella tecnologia che quasi certamente avverranno nel prossimo anno, due anni, cinque anni, ecc., interagiranno con questo disegno di legge e, per estensione, con qualsiasi potenziale legge che stiamo considerando qui negli Stati Uniti”, ha affermato Matt Mittelsteadt, ricercatore presso il Mercatus Center della George Mason University.

La legge è stata elaborata utilizzando a “approccio basato sul rischio”. Ciò applica restrizioni più severe in base al livello di rischio, con usi “ad alto rischio” che coinvolgono quei sistemi di intelligenza artificiale che comportano rischi per la salute e la sicurezza. Questi includono macchinari medici, veicoli, sistemi di riconoscimento delle emozioni e forze dell’ordine, secondo Digiday.

Il “rischio basso” implica l’uso di sistemi di intelligenza artificiale che non rischiano di danneggiare i cittadini dell’UE. Tuttavia, anche le imprese con usi a basso rischio dovrebbero impegnarsi volontariamente a rispettare codici di condotta.

I cittadini dell’UE, secondo Benifei, sono ancora scettici riguardo all’intelligenza artificiale, una situazione che potrebbe soffocare l’innovazione.

“Vogliamo che i nostri cittadini sappiano che grazie alle nostre regole possiamo proteggerli e che possono fidarsi delle imprese che svilupperanno l’intelligenza artificiale in Europa e che questo è un modo per sostenere l’innovazione”, ha affermato Benifei.

“Tenendo presenti i nostri valori fondamentali, tutela dei consumatori o dei lavoratori dei cittadini, trasparenza per le imprese per gli operatori a valle”.

Pressione su altri paesi

L’approvazione della legge sull’intelligenza artificiale in Europa è destinata a mettere pressione su altri paesi che sono ancora alle prese con una conclusione sulla regolamentazione della tecnologia dell’intelligenza artificiale. I paesi di tutto il mondo si stanno battendo per trovare il modo migliore per affrontare la tecnologia, che è in rapida crescita.

Negli Stati Uniti, Congresso ha tenuto diverse udienze e briefing per comprendere meglio la tecnologia, il suo utilizzo e i potenziali rischi ad essa associati.

Le previsioni degli analisti sull’intelligenza artificiale spaziano dalla natura trasformativa all’apocalittica, creando grattacapi ai legislatori che stanno cercando di elaborare una serie di regolamenti per la tecnologia.

"La legge dell'UE eserciterà sicuramente pressioni su altri paesi, in particolare sugli Stati Uniti, affinché elaborino proprie normative", ha affermato Hamid Ekbia, direttore dell'Autonomous Systems Policy Institute presso la Syracuse University e leader dell'Academic Alliance for AI Policy.

“La domanda è: che tipo di regolamentazione? I grandi player faranno pressione sul Congresso per “compensare” i vincoli dell’UE in nome dell’innovazione”.

Timestamp:

Di più da MetaNotizie