Gli studiosi sollecitano una regolamentazione dell’intelligenza artificiale per scongiurare minacce future

Gli studiosi sollecitano una regolamentazione dell’intelligenza artificiale per scongiurare minacce future

Gli esperti sollecitano una regolamentazione dell'IA per scongiurare le minacce future PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Un gruppo di 24 luminari dell’intelligenza artificiale ha pubblicato un documento e una lettera aperta chiedendo una regolamentazione più forte e tutele per la tecnologia, prima che danneggi la società e gli individui.

“Affinché l’intelligenza artificiale sia un vantaggio, dobbiamo riorientarci; spingere solo le capacità dell’intelligenza artificiale non è sufficiente”, ha esortato il gruppo nella loro documento.

Guidato da due dei tre cosiddetti “padrini dell’intelligenza artificiale”, Geoffrey Hinton ed Yoshua Bengio, il gruppo ha affermato che i progressi dell’intelligenza artificiale sono stati “rapidi e, per molti, sorprendenti”.

Non c’è motivo di supporre che il ritmo dello sviluppo dell’intelligenza artificiale rallenterà, ha affermato il gruppo, il che significa che è stato raggiunto un punto in cui la regolamentazione è necessaria e possibile – un’opportunità che secondo loro potrebbe passare.

“Ci sono voluti decenni perché il cambiamento climatico fosse riconosciuto e affrontato; per l’intelligenza artificiale, decenni potrebbero essere troppi”, afferma la lettera. “Senza sufficiente cautela, potremmo perdere irreversibilmente il controllo dei sistemi di intelligenza artificiale autonomi, rendendo inefficace l’intervento umano”.

Lo sviluppo futuro dell’intelligenza artificiale autonoma è il punto focale della lettera. Tali sistemi, sostengono gli scienziati, potrebbero essere progettati con intenti dannosi o dotati di funzionalità dannose che li rendono potenzialmente più pericolosi dei numerosi attori statali che attualmente minacciano i sistemi sensibili.

Inoltre, una cattiva intelligenza artificiale potrebbe “amplificare l’ingiustizia sociale, erodere la stabilità sociale e indebolire la nostra comprensione condivisa della realtà che è fondamentale per la società”, hanno scritto gli autori.

Per prevenire le peggiori possibilità, la lettera esorta le aziende che ricercano e implementano l’intelligenza artificiale a utilizzare “obiettivi sicuri ed etici”. Gli autori suggeriscono che le aziende tecnologiche e i finanziatori privati ​​della ricerca sull’intelligenza artificiale dovrebbero destinare almeno un terzo dei loro budget di ricerca e sviluppo alla sicurezza.

Gli autori sollecitano anche i governi ad agire e sottolineano che non esistono quadri normativi o di governance in atto per affrontare i rischi dell’intelligenza artificiale, tuttavia i governi regolamentano i prodotti farmaceutici, i sistemi finanziari e l’energia nucleare.

I governi dovrebbero garantire di avere una visione approfondita dello sviluppo dell’intelligenza artificiale attraverso normative come la registrazione dei modelli, la protezione degli informatori, gli standard di segnalazione degli incidenti e il monitoraggio dello sviluppo dei modelli e dell’utilizzo dei supercomputer, sostengono gli autori della lettera.

I governi dovrebbero avere accesso ai sistemi di intelligenza artificiale prima della loro implementazione “per valutarne le capacità pericolose” come l’autoreplicazione, che secondo gli autori potrebbe rendere un’intelligenza artificiale autonoma una minaccia inarrestabile. Inoltre, gli sviluppatori di modelli di “IA di frontiera” all’avanguardia dovrebbero essere ritenuti legalmente responsabili dei danni inerenti ai loro modelli se tali problemi “possono essere ragionevolmente previsti o prevenuti”.

I regolatori dovrebbero anche darsi l’autorità di “autorizzare lo sviluppo [dell’intelligenza artificiale], sospendere lo sviluppo in risposta a capacità preoccupanti, imporre controlli di accesso e richiedere misure di sicurezza delle informazioni robuste per gli hacker a livello statale, fino a quando non saranno pronte protezioni adeguate”, afferma il gruppo.

“Esiste un percorso responsabile, se abbiamo la saggezza di intraprenderlo”, hanno scritto Hinton, Bengio e i loro colleghi.

Il capo dell'intelligenza artificiale di Meta non è d'accordo

La richiesta di una migliore gestione del rischio legato all’IA arriva appena una settimana prima del primo vertice mondiale sulla sicurezza dell’IA tenuto al Bletchley Park nel Regno Unito a novembre. I governi globali, i leader tecnologici e gli accademici saranno tutti presenti per discutere proprio delle minacce rispetto alle quali il documento aperto mette in guardia.

Uno dei partecipanti al summit di Bletchley sarà Yann LeCun, il terzo dei tre padrini dell'IA che hanno vinto il Premio Turing nel 2019 per il loro riparazioni nelle reti neurali, e il cui nome è evidentemente assente nel documento sulla gestione del rischio pubblicato oggi.

A differenza di Bengio e Hinton, quest'ultimo dei quali ha lasciato Google a maggio ed ha espresso rammarico per il suo contributo al campo dell'intelligenza artificiale e per i danni che potrebbero causare, LeCun continua il suo lavoro con l'industria tecnologica privata come capo scienziato dell'intelligenza artificiale presso la società madre di Facebook Meta, che è scomparsa all-in sullo sviluppo dell’intelligenza artificiale di recente.

LeCun è persino entrato in a dibattito su Facebook all'inizio di questo mese con Bengio.

Il dirigente di Meta ha affermato che una “maggioranza silenziosa” di scienziati dell’IA non crede negli scenari apocalittici dell’IA e ritiene che la tecnologia abbia bisogno di piattaforme aperte e accessibili per diventare “potente, affidabile e sicura”.

Bengio, invece, disse pensa che qualcosa con lo stesso potenziale dell’intelligenza artificiale abbia bisogno di regolamentazione per non cadere nelle mani sbagliate.

“La tua tesi di permettere a tutti di manipolare potenti IA è come la tesi libertaria secondo cui a tutti dovrebbe essere permesso di possedere una mitragliatrice… A memoria, non eri d’accordo con tali politiche”, ha detto Bengio in risposta al post su Facebook di LeCun. “I governi permettono a qualcuno di costruire bombe nucleari, manipolare agenti patogeni pericolosi o guidare aerei passeggeri? No. Questi sono pesantemente regolamentati dai governi”.

LeCun non ha risposto alle domande di Il registro, ma ha parlato con Il Financial Times la scorsa settimana e sottolinea punti che ora sembrano una risposta anticipata alle affermazioni contenute nel documento sulla gestione del rischio dell’IA redatto da autori accademici.

“Regolamentare la ricerca e lo sviluppo nel campo dell’intelligenza artificiale è incredibilmente controproducente”, LeCun detto il FT, aggiungendo che coloro che lo chiedono “vogliono la cattura normativa con il pretesto della sicurezza dell’IA”.

LeCun ha respinto la possibilità che l’intelligenza artificiale possa minacciare l’umanità come “assurda”, sostenendo che i modelli di intelligenza artificiale non comprendono nemmeno il mondo, non possono pianificare e non possono realmente ragionare.

“Non abbiamo auto completamente autonome e a guida autonoma che possano allenarsi a guidare in circa 20 ore di pratica, cosa che un diciassettenne può fare”, ha affermato LeCun. Il tentativo di controllare una tecnologia in rapida evoluzione come l’intelligenza artificiale dovrebbe essere paragonato ai primi giorni di Internet, che fiorì solo perché rimase aperto, sosteneva l’uomo di Meta.

Vale la pena notare che gli autori dell’articolo e della lettera aperta pubblicati oggi non affermano che l’attuale generazione di intelligenza artificiale sia capace di affrontare le minacce previste. Piuttosto, vogliono che vengano imposte delle norme prima che tali problemi emergano.

“Nel 2019, GPT-2 non poteva contare in modo affidabile fino a dieci. Solo quattro anni dopo, i sistemi di deep learning possono scrivere software, generare scene fotorealistiche su richiesta, fornire consulenza su argomenti intellettuali e combinare linguaggio ed elaborazione di immagini per guidare i robot”, ha osservato il gruppo di 24 accademici.

“Dobbiamo anticipare l’amplificazione dei danni attuali, così come i nuovi rischi, e prepararci ai rischi maggiori ben prima che si materializzino”. ®

Timestamp:

Di più da Il registro