Dicembre 6th, 2023 / in CCC / di Haley Griffin
Ieri, 5 dicembre, il CCC ha presentato una risposta all'Ufficio di Gestione e Bilancio (OMB). Richiesta di commenti (RFC) sul miglioramento della governance, dell'innovazione e della gestione del rischio per la bozza di memorandum sull'uso da parte delle agenzie dell'intelligenza artificiale. I seguenti membri del Consiglio CCC e personale CCC hanno scritto la risposta: David Danks (Università della California, San Diego), Haley Griffin (Computing Community Consortium), David Jensen (Università del Massachusetts Amherst), Chandra Krintz (Università della California Santa Barbara), Daniel Lopresti (Lehigh University), Rajmohan Rajaraman (Northeastern University), Matthew Turk (Toyota Technological Institute di Chicago) e Holly Yanco (Università del Massachusetts Lowell).
L'OMB ha cercato risposte a molte diverse domande specifiche riguardanti i loro memorandum proposto ciò implementerebbe “nuovi requisiti delle agenzie nelle aree di governance dell’IA, innovazione e gestione del rischio e indirizzerebbe le agenzie ad adottare specifiche pratiche di gestione del rischio minimo per gli usi dell’IA che influiscono sui diritti e sulla sicurezza del pubblico”.
In risposta a una domanda della RFC, "Come può l'OMB promuovere al meglio l'innovazione responsabile dell'intelligenza artificiale?", CCC ha risposto:
- Portare competenze esterne alle agenzie e ai fornitori, magari attraverso individui esterni nei comitati consultivi delle agenzie, sia esperti tecnici che cittadini medi. Il lavoro di tali comitati dovrebbe essere osservabile e trasparente ove possibile (in modo che il pubblico possa fornire feedback secondo necessità).
- Dare priorità al fatto che i risultati derivanti dall’utilizzo dell’intelligenza artificiale siano affidabili, equi e affidabili. Sebbene l’utilizzo di dati validi e puliti sia importante nello sviluppo di sistemi di intelligenza artificiale, i risultati e gli impatti sugli individui e sulle comunità devono essere prioritari, soprattutto perché anche i dati validi possono essere utilizzati in modo improprio.
- Implementare meccanismi di monitoraggio che riconoscano che, anche se un gran numero di individui ha utilizzato un sistema di IA per un periodo di tempo e non ha ancora segnalato alcun problema, ciò non significa che il sistema di IA sia sicuro o affidabile. Casi limite rari ma di grande impatto sono comuni in tutti i campi dell’informatica.
- Rivalutare un sistema AI/ML ogni volta che viene implementato un aggiornamento software o viene modificato un set di dati. Riconosciamo che ci sono domande difficili su quando un aggiornamento di software o set di dati è sufficientemente significativo da richiedere una rivalutazione. Non proponiamo una regola ferrea, ma sosteniamo che qualsiasi criterio di questo tipo dovrebbe peccare di eccessiva rivalutazione piuttosto che di troppo poca.
- Incoraggiare la valutazione e il test indipendenti di tutti i sistemi AI/ML in modo da non diventare dipendenti da fornitori che potrebbero utilizzare criteri diversi.
- Pianifica e preparati attivamente per impatti deleteri imprevisti perché il comportamento di molti sistemi di intelligenza artificiale rimane imprevedibilmente complesso.
- Rilasciare parametri e ragioni per stabilire che un'IA non ha né "influenze sulla sicurezza" né "influenze sui diritti". Il pubblico dovrebbe avere accesso a queste misure, dati i notevoli incentivi che spingono le aziende a sostenere che i loro sistemi non hanno alcun impatto sulla sicurezza né sui diritti, al fine di ridurre al minimo il controllo.
- Utilizzare una caratterizzazione più fluida di un sistema di intelligenza artificiale, poiché l’impatto di tale tecnologia può cambiare rapidamente e deve essere riconsiderato spesso.
- Incoraggiare e sostenere il controllo pubblico sugli inventari dei casi d’uso dell’IA che le agenzie stanno rilasciando. C'è sempre la possibilità che scelgano di esporre il lavoro che sanno piacerà al pubblico invece di un campione casuale/medio.
- Richiedere che i casi d’uso dell’IA siano pubblicati con dettagli sufficienti e, ove appropriato, dati rappresentativi in modo che esperti esterni indipendenti possano valutare i rischi potenziali e fornire feedback costruttivi per il miglioramento continuo delle implementazioni dell’IA.
In tutta la risposta, gli autori sottolineano anche che a volte le soluzioni di IA non generativa sono più efficaci di quelle di IA generativa, è necessaria una struttura trasparente e solida su come collaboreranno i diversi organi di governance dell’IA nelle diverse agenzie e dovrebbe esserci una chiara riparazione. meccanismo se qualcuno si sente come se fosse stato influenzato negativamente dall’uso dell’intelligenza artificiale. Leggi la risposta completa di CCC qui.
- Distribuzione di contenuti basati su SEO e PR. Ricevi amplificazione oggi.
- PlatoData.Network Generativo verticale Ai. Potenzia te stesso. Accedi qui.
- PlatoAiStream. Intelligenza Web3. Conoscenza amplificata. Accedi qui.
- PlatoneESG. Carbonio, Tecnologia pulita, Energia, Ambiente, Solare, Gestione dei rifiuti. Accedi qui.
- Platone Salute. Intelligence sulle biotecnologie e sulle sperimentazioni cliniche. Accedi qui.
- Fonte: https://feeds.feedblitz.com/~/845441873/0/cccblog~CCC-Responds-to-OMB-RFC-on-Advancing-Governance-Innovation-and-Risk-Management-for-Agency-Use-of-AI-Draft-Policy/
- :È
- :non
- :Dove
- 1
- 6°
- a
- WRI
- accesso
- operanti in
- adottare
- avanzare
- avanzando
- consultivo
- agenzie
- agenzia
- AI
- Governance dell'IA
- Sistemi di intelligenza artificiale
- casi d'uso ai
- AI / ML
- Tutti
- anche
- sempre
- an
- ed
- in qualsiasi
- opportuno
- SONO
- aree
- artificiale
- intelligenza artificiale
- AS
- At
- Authored
- gli autori
- media
- BE
- perché
- diventare
- stato
- comportamento
- MIGLIORE
- Blog
- corpi
- entrambi
- budget limitato.
- ma
- by
- California
- Materiale
- Custodie
- casi
- Categoria
- ccc
- Blog CCC
- Consiglio CCC
- Membri del Consiglio CCC
- il cambiamento
- cambiato
- Chicago
- la scelta
- cittadini
- rivendicare
- cavedano
- pulire campo
- collaboreranno
- Commenti
- Uncommon
- Comunità
- comunità
- Aziende
- complesso
- informatica
- consorzio
- costruttivo
- Consiglio
- membri del consiglio
- criteri
- Daniel
- dati
- David
- Dicembre
- dipendente
- implementazioni
- dettaglio
- in via di sviluppo
- Diego
- diverso
- A differenza
- difficile
- dirette
- Dsiplay
- do
- effettua
- bozza
- ogni
- bordo
- Efficace
- enfatizzare
- abbastanza
- iscrizione
- particolarmente
- valutare
- valutazione
- Anche
- competenza
- esperti
- fiera
- feedback
- si sente
- campi
- fluido
- i seguenti
- Nel
- da
- pieno
- generativo
- AI generativa
- Dare
- dato
- buono
- la governance
- Grifone
- Avere
- Come
- http
- HTTPS
- if
- Impact
- impattato
- di forte impatto
- impatto
- impatti
- realizzare
- implementato
- importante
- miglioramento
- in
- Incentive
- studente indipendente
- individui
- Innovazione
- invece
- Istituto
- Intelligence
- sicurezza
- Sapere
- grandi
- piccolo
- gestione
- molti
- Massachusetts
- matthew
- Maggio..
- significare
- analisi
- meccanismo
- meccanismi di
- Utenti
- Memorandum
- Meta
- Metrica
- mente
- ordine
- monitoraggio
- Scopri di più
- molti
- Bisogno
- di applicazione
- esigenze
- negativamente
- Nessuno dei due
- Northeastern University
- numero
- of
- Office
- di frequente
- on
- ONE
- quelli
- in corso
- or
- minimo
- risultati
- al di fuori
- ancora
- Forse
- periodo
- piano
- Platone
- Platone Data Intelligence
- PlatoneDati
- per favore
- politica
- possibilità
- possibile
- potenziale
- pratiche
- Preparare
- offre
- fornire
- la percezione
- pubblicato
- domanda
- Domande
- rapidamente
- RARO
- piuttosto
- Leggi
- motivi
- riconoscere
- per quanto riguarda
- rilascio
- affidabile
- resti
- Segnalati
- rappresentante
- richiedere
- Requisiti
- risposta
- risposte
- responsabile
- Risultati
- diritti
- Rischio
- gestione del rischio
- rischi
- robusto
- Regola
- sicura
- Sicurezza
- San
- San Diego
- Babbo
- scrutinio
- dovrebbero
- lato
- significativa
- da
- So
- Software
- Soluzioni
- Qualcuno
- a volte
- ricercato
- specifico
- STAFF
- La struttura
- presentata
- tale
- sufficiente
- supporto
- sistema
- SISTEMI DI TRATTAMENTO
- TAG
- Consulenza
- tecnologico
- Tecnologia
- Testing
- di
- che
- Il
- loro
- Là.
- Strumenti Bowman per analizzare le seguenti finiture:
- di
- anche se?
- Attraverso
- tempo
- a
- pure
- top
- toyota
- trasparente
- affidabili sul mercato
- imprevisto
- Università
- University of California
- Aggiornanento
- uso
- caso d'uso
- utilizzato
- usa
- utilizzando
- fornitori
- we
- quando
- while
- OMS
- volere
- con
- Lavora
- sarebbe
- ancora
- zefiro