Non preoccupatevi, gente, ecco Chuck Schumer con alcune idee sulla regolamentazione dell'IA

Non preoccupatevi, gente, ecco Chuck Schumer con alcune idee sulla regolamentazione dell'IA

Non preoccupatevi, gente, ecco che arriva Chuck Schumer con alcune idee sulla regolamentazione dell'AI PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Il senatore degli Stati Uniti Chuck Schumer (D-NY) è recentemente deciso ad approvare una legislazione bipartisan che consenta audit pubblici indipendenti dei prodotti di intelligenza artificiale commerciali prima che vengano rilasciati nel mondo.

Dopo mesi di consultazioni, il leader della maggioranza al Senato afferma di aver redatto un quadro per regolare lo sviluppo, l'implementazione e l'uso della tecnologia avanzata di apprendimento automatico. Il boom dell'intelligenza artificiale generativa, tutto il clamore che la circonda e i passi della Cina per limitare la tecnologia hanno reso ancora più urgente governare questi modelli e software in America, ha affermato.

Tale quadro, se i piani di Schumer si realizzassero, porterebbe a una legislazione "completa" negli Stati Uniti che le organizzazioni dovrebbero seguire quando lanciano l'intelligenza artificiale.

"The Age of AI è qui, e qui per restare", ha detto Schumer in una dichiarazione preconfezionata. "Ora è il momento di sviluppare, sfruttare e far avanzare il suo potenziale a beneficio del nostro Paese per generazioni".

"Dato l'impatto consequenziale e in rapida evoluzione del settore dell'IA sulla società, la sicurezza nazionale e l'economia globale", ha continuato, "ho lavorato con alcuni dei principali professionisti dell'IA e leader di pensiero per creare un quadro che delinei un nuovo regime normativo ciò impedirebbe danni potenzialmente catastrofici al nostro paese, assicurando contemporaneamente che gli Stati Uniti avanzino e guidino questa tecnologia trasformativa.

“Ma c'è ancora molto lavoro da fare e dobbiamo muoverci rapidamente. Non vedo l'ora di lavorare in tutto il corridoio, in tutto il settore, in tutto il paese e oltre, per dare forma a questa proposta e perfezionare la legislazione per garantire che l'IA mantenga la sua promessa di creare un mondo migliore".

La struttura proposta da Schumer, che è stata condivisa intorno a Capitol Hill e non è ancora pubblica, ruota attorno a quattro guardrail: chi, dove, come e proteggere.

Nello specifico, in base a queste proposte, dovrebbe essere chiaro chi ha addestrato un modello e chi dovrebbe utilizzarlo, da dove provengono i dati di addestramento e come verrà utilizzato il software. Fondamentalmente, dovrebbero essere fornite informazioni sufficienti in modo che esperti esterni possano controllare, testare e rivedere prodotti e tecnologie di apprendimento automatico prima che vengano immessi sul mercato e che questi risultati siano resi pubblici.

Infine, per quanto riguarda la protezione, gli sviluppatori dovrebbero dimostrare che i loro sistemi di intelligenza artificiale sono in linea con i valori americani e che "gli sviluppatori di intelligenza artificiale mantengono la loro promessa di creare un mondo migliore". 

Schumer intende condividere, se non già, il suo quadro con i leader del mondo accademico, industriale e governativo e intende lavorare con gruppi di riflessione e istituti di ricerca per perfezionare le sue proposte prima di presentare un disegno di legge. Il registro ha sollecitato l'ufficio del senatore per maggiori dettagli e un rappresentante non ha potuto offrire altro che un comunicato stampa.

Tale versione chiarisce che il quadro proposto "imporrà alle aziende di consentire a esperti indipendenti di rivedere e testare le tecnologie di intelligenza artificiale prima di un rilascio pubblico o di un aggiornamento e di fornire agli utenti l'accesso a tali risultati".

A proposito di burocrazia... l'ha fatto il Comitato europeo per la protezione dei dati, che aiuta a mantenere allineati i garanti nazionali della privacy in Europa creato una task force per garantire che tali regolatori condividano informazioni e dettagli di eventuali repressioni su ChatGPT di OpenAI. Questo è dopo che l'Italia ha preso una linea dura contro il chat bot, i timori sulla privacy e sulla protezione dei minori, e altre nazioni stanno prendendo in considerazione lo stesso tipo di azione.

Ciò indica sostanzialmente che l'Europa sta convergendo su una risposta unificata al sistema di intelligenza artificiale di nuova generazione che è stato sostenuto da Microsoft e iniettato in tutti gli angoli della tecnologia odierna.

Tutto ciò avviene quando il regolatore del cyberspazio cinese ha redatto regole simili che richiederebbero agli enti di presentare valutazioni di sicurezza che esaminano i potenziali rischi per la sicurezza dei loro prodotti AI. Gli sviluppatori devono garantire che i dati di formazione utilizzati per modellare i loro modelli non portino a discriminazioni e riflettano i valori socialisti del paese, Reuters segnalati.

La National Telecommunications and Information Administration del Dipartimento del Commercio degli Stati Uniti sta cercando commenti pubblici per aiutare a elaborare potenziali politiche volte a migliorare la responsabilità dei prodotti e dei servizi di intelligenza artificiale. L'agenzia rilasciato la sua formale "Richiesta di commento di responsabilità" AI questa settimana. ®

Timestamp:

Di più da Il registro