Road Map del CISA: tracciare un percorso per uno sviluppo affidabile dell'IA

Road Map del CISA: tracciare un percorso per uno sviluppo affidabile dell’IA

Road Map del CISA: tracciare un percorso per uno sviluppo affidabile dell'intelligenza artificiale PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

COMMENTO
La rapida adozione della tecnologia dell’intelligenza artificiale ha suscitato serie preoccupazioni informatiche tra gli esperti di intelligenza artificiale, i politici, i titani dell’industria tecnologica, le nazioni e i leader mondiali. In risposta, la Cybersecurity and Infrastructure Agency (CISA) ha presentato il suo 2023-2024 “Roadmap CISA per l’intelligenza artificiale”, con l'obiettivo di creare uno sviluppo e un utilizzo sicuri e affidabili dell'intelligenza artificiale, come indicato da Ordine esecutivo della Casa Bianca 14110.

CISA ha diffuso il suo “Piano strategico” per il periodo 2023-2025 con la missione di fornire un’infrastruttura sicura e resiliente per il pubblico americano. La road map dell’IA è un adattamento degli stessi quattro obiettivi evidenziati nel piano strategico:

  • Difesa informatica: Mentre i sistemi di intelligenza artificiale possono aiutare le organizzazioni a migliorare le proprie difese contro le minacce informatiche emergenti e avanzate, i sistemi software basati sull’intelligenza artificiale rappresentano un problema numero di rischi che necessitano di un robusto Difesa dell'IA. La road map mira a promuovere l’uso vantaggioso dell’intelligenza artificiale e, allo stesso tempo, a proteggere i sistemi nazionali dalle minacce basate sull’intelligenza artificiale.

  • Riduzione del rischio e resilienza: Infrastruttura critica le organizzazioni utilizzano sempre più sistemi di intelligenza artificiale per mantenere e rafforzare la propria resilienza informatica. Con la sua road map, CISA mira a promuovere un’adozione responsabile e consapevole dei rischi di sistemi software basati sull’intelligenza artificiale che siano “sicuro dal design" - dove la sicurezza viene implementata nella fase di progettazione del ciclo di vita di sviluppo di un prodotto in modo che i difetti sfruttabili possano essere ridotti alla fonte.

  • Collaborazione operativa: Con la proliferazione della tecnologia IA, i cittadini statunitensi e i settori delle infrastrutture critiche potrebbero essere soggetti a minacce mirate, che potrebbero richiedere la condivisione di informazioni e risposte coordinate da parte di organizzazioni, forze dell’ordine e partner internazionali. CISA prevede di sviluppare un quadro che aiuti a migliorare l’allineamento e il coordinamento tra le parti interessate rilevanti.

  • Unificazione delle agenzie: La CISA mira a unificare e integrare i sistemi software di intelligenza artificiale in tutta l’agenzia, il che aiuterà l’agenzia a utilizzare i sistemi di intelligenza artificiale in modo più coerente. CISA prevede inoltre di reclutare e sviluppare una forza lavoro in grado di sfruttare in modo ottimale i sistemi di intelligenza artificiale.

La road map sull’intelligenza artificiale affida l’onere della sicurezza agli sviluppatori di intelligenza artificiale, non ai consumatori di intelligenza artificiale

Storicamente, i produttori di software di intelligenza artificiale si sono opposti alla realizzazione di prodotti sicuri fin dalla progettazione, scaricando l’onere della sicurezza sui consumatori di intelligenza artificiale. La road map CISA sull’intelligenza artificiale impone ai produttori di sistemi di intelligenza artificiale di adottare principi di sicurezza fin dalla progettazione durante l’intero ciclo di vita dello sviluppo. Ciò include rendere la sicurezza fin dalla progettazione una priorità aziendale assoluta, assumersi la responsabilità dei risultati di sicurezza per i clienti e guidare lo sviluppo del prodotto con trasparenza e responsabilità radicali.

CISA prevede di implementare cinque linee di impegno per raggiungere gli obiettivi dichiarati

CISA ha identificato cinque linee di impegno per unificare e accelerare la road map di cui sopra:

  • Uso responsabile dell’IA: CISA intende implementare strumenti software abilitati all’intelligenza artificiale per rafforzare le difese informatiche e supportare le infrastrutture critiche. Tutti i sistemi e gli strumenti passeranno attraverso un rigoroso processo di selezione in cui CISA garantirà che i sistemi relativi all’intelligenza artificiale siano responsabili, sicuri, etici e sicuri da usare. La CISA implementerà inoltre solidi processi di governance che non solo saranno coerenti con i processi di appalto federali, le leggi e le politiche applicabili, la privacy, i diritti e le libertà civili, ma adotterà anche un approccio per la valutazione continua dei modelli di intelligenza artificiale rivedendo al contempo le pratiche di sicurezza IT per integrarli in modo sicuro. la tecnologia.

  • Garantire che i sistemi di intelligenza artificiale: Per creare uno sviluppo e un’implementazione di software AI più sicuri e resilienti, CISA intende sostenere sicuro in base alla progettazione iniziative, sviluppare migliori pratiche e linee guida sulla sicurezza per un'ampia gamma di soggetti interessati (ad esempio, agenzie governative civili federali, aziende del settore privato, governi statali, locali, tribali e territoriali) e promuovere l'adozione di forti pratiche di gestione delle vulnerabilità, specificando un processo di divulgazione delle vulnerabilità e fornire indicazioni per i test di sicurezza e gli esercizi di red teaming per i sistemi di intelligenza artificiale.

  • Proteggi le infrastrutture critiche dall'uso dannoso dell'intelligenza artificiale: CISA collaborerà con agenzie governative e partner industriali come Collaborazione congiunta per la difesa informatica per sviluppare, testare e valutare gli strumenti di intelligenza artificiale e collaborare all'evoluzione Minacce dell'IA. La CISA pubblicherà materiali per aumentare la consapevolezza sui rischi emergenti e valuterà anche i metodi di gestione del rischio per determinare il quadro analitico appropriato per la valutazione e il trattamento dei rischi dell’IA.

  • Collaborare con interagenzia, partner internazionali e il pubblico: Per aumentare la consapevolezza, condividere informazioni sulle minacce e migliorare la risposta agli incidenti e le capacità investigative, la CISA prevede di promuovere approcci collaborativi come gruppi di lavoro sull’intelligenza artificiale, partecipazione o partecipazione a riunioni tra agenzie e uno stretto coordinamento con le entità del Dipartimento per la sicurezza nazionale. La CISA lavorerà a livello interagenzia per garantire che le sue politiche e strategie siano in linea con il tutto il governo approccio e coinvolgerà partner internazionali per incoraggiare l’adozione delle migliori pratiche internazionali per un’IA sicura.

  • Ampliare le competenze in materia di IA nella forza lavoro: Human vigilanza, supervisione e intuizione sono sempre necessarie per rilevare le minacce informatiche basate sull’intelligenza artificiale e non basate sull’intelligenza artificiale e per garantire che i sistemi di intelligenza artificiale siano esenti da errori, pregiudizi e manipolazioni. L’intuizione umana e la vigilanza possono essere rafforzate solo con solide iniziative di sensibilizzazione alla sicurezza. Questo è il motivo per cui CISA prevede di istruire continuamente la forza lavoro sui sistemi e sulle tecniche software di intelligenza artificiale, reclutare dipendenti con esperienza nell’intelligenza artificiale e condurre programmi di formazione sulla sensibilizzazione alla sicurezza che dovrebbero includere esercizi situazionali per garantire che i dipendenti comprendano gli aspetti legali, etici e politici delle tecnologie basate sull’intelligenza artificiale. sistemi, oltre agli aspetti tecnici. 

Attraverso le iniziative delineate nella road map CISA, l’agenzia spera di costruire un approccio di sicurezza informatica più solido per la nazione, proteggere le infrastrutture critiche dall’uso dannoso dell’intelligenza artificiale e dare priorità alla sicurezza come requisito aziendale fondamentale negli strumenti e nei sistemi basati sull’intelligenza artificiale.

Timestamp:

Di più da Lettura oscura