CISA e NCSC guidano gli sforzi per innalzare gli standard di sicurezza dell’IA

CISA e NCSC guidano gli sforzi per innalzare gli standard di sicurezza dell’IA

CISA e NCSC guidano gli sforzi per innalzare gli standard di sicurezza dell'IA PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

La National Cyber ​​Security Agency (NCSC) del Regno Unito e la Cybersecurity and Infrastructure Security Agency (CISA) degli Stati Uniti hanno pubblicato una guida ufficiale per proteggere le applicazioni di intelligenza artificiale: un documento che le agenzie sperano garantirà che la sicurezza sia intrinseca allo sviluppo dell'intelligenza artificiale.

Lo afferma l'agenzia di spionaggio britannica documento di orientamento è il primo del suo genere ed è stato approvato da altri 17 paesi.

Guidare il pubblicazione è il timore di lunga data che la sicurezza venga trascurata poiché i fornitori di sistemi di intelligenza artificiale lavorano per tenere il passo con il ritmo dello sviluppo dell’intelligenza artificiale.

Lindy Cameron, CEO dell’NCSC, all’inizio di quest’anno ha affermato che l’industria tecnologica ha una storia in cui la sicurezza viene considerata una considerazione secondaria quando il ritmo dello sviluppo tecnologico è elevato.

Oggi, le Linee guida per lo sviluppo di sistemi di intelligenza artificiale sicuri hanno richiamato nuovamente l’attenzione su questo problema, aggiungendo che l’intelligenza artificiale sarà invariabilmente esposta anche a nuove vulnerabilità.

“Sappiamo che l’intelligenza artificiale si sta sviluppando a un ritmo fenomenale e per tenere il passo è necessaria un’azione internazionale concertata, tra governi e industria”, ha affermato Cameron.

“Queste linee guida segnano un passo significativo nella definizione di una comprensione comune e veramente globale dei rischi informatici e delle strategie di mitigazione legate all’intelligenza artificiale per garantire che la sicurezza non sia un post scriptum per lo sviluppo ma un requisito fondamentale in ogni aspetto. 

“Sono orgoglioso che l’NCSC stia portando avanti sforzi cruciali per innalzare il livello della sicurezza informatica dell’IA: uno spazio informatico globale più sicuro aiuterà tutti noi a realizzare in modo sicuro e fiducioso le meravigliose opportunità di questa tecnologia”.

Le linee guida adottano a sicuro in base alla progettazione approccio, aiutando idealmente gli sviluppatori di intelligenza artificiale a prendere le decisioni più sicure dal punto di vista informatico in tutte le fasi del processo di sviluppo. Si applicheranno alle applicazioni create da zero e a quelle basate su risorse esistenti.

Di seguito è riportato l’elenco completo dei paesi che approvano la guida, insieme alle rispettive agenzie di sicurezza informatica:

  • Australia - Centro australiano per la sicurezza informatica (ACSC) della direzione australiana dei segnali 
  • Canada – Centro canadese per la sicurezza informatica (CCCS) 
  • Cile – CSIRT del governo cileno
  • Repubblica Ceca - Agenzia nazionale per la sicurezza informatica e dell'informazione della Repubblica ceca (NUKIB)
  • Estonia – Autorità per i sistemi informativi dell'Estonia (RIA) e Centro nazionale per la sicurezza informatica dell'Estonia (NCSC-EE)
  • Francia – Agenzia francese per la sicurezza informatica (ANSSI)
  • Germania – Ufficio federale tedesco per la sicurezza informatica (BSI)
  • Israele – Direzione informatica nazionale israeliana (INCD)
  • Italia – Agenzia nazionale per la sicurezza informatica (ACN)
  • Giappone – Centro nazionale giapponese per la preparazione agli incidenti e la strategia per la sicurezza informatica (NISC; Segretariato giapponese per la scienza, la tecnologia e le politiche dell'innovazione, Ufficio di Gabinetto
  • Nuova Zelanda – Centro nazionale per la sicurezza informatica della Nuova Zelanda
  • Nigeria - Agenzia nazionale per lo sviluppo della tecnologia dell'informazione della Nigeria (NITDA)
  • Norvegia – Centro nazionale norvegese per la sicurezza informatica (NCSC-NO)
  • Polonia - NASK Istituto nazionale di ricerca polacco (NASK)
  • Repubblica di Corea - Servizio di intelligence nazionale della Repubblica di Corea (NIS)
  • Singapore – Agenzia per la sicurezza informatica di Singapore (CSA)
  • Regno Unito di Gran Bretagna e Irlanda del Nord – Centro nazionale per la sicurezza informatica (NCSC)
  • Stati Uniti d’America – Agenzia per la sicurezza informatica e le infrastrutture (CISA); Agenzia per la sicurezza nazionale (NSA; Federal Bureau of Investigations (FBI)

Le linee guida sono suddivise in quattro aree chiave di interesse, ciascuna con suggerimenti specifici per migliorare ogni fase del ciclo di sviluppo dell’IA.

1. Progettazione sicura

Come suggerisce il titolo, le linee guida affermano che la sicurezza dovrebbe essere considerata anche prima dell’inizio dello sviluppo. Il primo passo è sensibilizzare il personale sui rischi per la sicurezza dell’IA e sulla loro mitigazione. 

Gli sviluppatori dovrebbero quindi modellare le minacce al proprio sistema, considerando anche queste soluzioni a prova di futuro, ad esempio tenendo conto del maggior numero di minacce alla sicurezza che arriveranno man mano che la tecnologia attirerà più utenti e dei futuri sviluppi tecnologici come gli attacchi automatizzati.

Le decisioni sulla sicurezza dovrebbero essere prese anche con ogni decisione sulla funzionalità. Se nella fase di progettazione uno sviluppatore è consapevole che i componenti AI attiveranno determinate azioni, è necessario porsi domande su come proteggere al meglio questo processo. Ad esempio, se l’intelligenza artificiale modificherà i file, dovrebbero essere aggiunte le necessarie garanzie per limitare questa capacità solo entro i confini delle esigenze specifiche dell’applicazione.

2. Sviluppo sicuro

La protezione della fase di sviluppo comprende linee guida sulla sicurezza della catena di approvvigionamento, sul mantenimento di una documentazione solida, sulla protezione delle risorse e sulla gestione del debito tecnico.

Negli ultimi anni la sicurezza della catena di fornitura è stata un punto focale per i difensori, con un’ondata di attacchi di alto profilo che hanno portato a un numero enorme di vittime

Garantire che i fornitori utilizzati dagli sviluppatori di intelligenza artificiale siano verificati e operino secondo elevati standard di sicurezza è importante, così come avere piani in atto per quando i sistemi mission-critical riscontrano problemi.

3. Distribuzione sicura

L'implementazione sicura implica la protezione dell'infrastruttura utilizzata per supportare un sistema di intelligenza artificiale, inclusi i controlli di accesso per API, modelli e dati. Se dovesse verificarsi un incidente di sicurezza, gli sviluppatori dovrebbero anche disporre di piani di risposta e di rimedio che presuppongano che un giorno i problemi emergano.

La funzionalità del modello e i dati su cui è stato addestrato dovrebbero essere protetti continuamente dagli attacchi e dovrebbero essere rilasciati in modo responsabile, solo dopo essere stati sottoposti a valutazioni di sicurezza approfondite. 

I sistemi di intelligenza artificiale dovrebbero inoltre consentire agli utenti di essere sicuri per impostazione predefinita, ove possibile rendendo predefinita per tutti gli utenti l’opzione o la configurazione più sicura. Fondamentale è anche la trasparenza sulle modalità di utilizzo, archiviazione e accesso ai dati degli utenti.

4. Funzionamento e manutenzione sicuri

La sezione finale spiega come proteggere i sistemi di intelligenza artificiale dopo che sono stati distribuiti. 

Il monitoraggio è al centro di gran parte di questo, sia che si tratti del comportamento del sistema nel tenere traccia delle modifiche che potrebbero avere un impatto sulla sicurezza, sia di ciò che viene immesso nel sistema. Il rispetto dei requisiti in materia di privacy e protezione dei dati richiederà monitoraggio e registrazione input per segnali di uso improprio. 

Gli aggiornamenti dovrebbero anche essere rilasciati automaticamente per impostazione predefinita, in modo che non siano in uso versioni obsolete o vulnerabili. Infine, partecipare attivamente alle comunità di condivisione delle informazioni può aiutare il settore a comprendere le minacce alla sicurezza dell’intelligenza artificiale, offrendo più tempo ai difensori per ideare misure di mitigazione che a loro volta potrebbero limitare potenziali exploit dannosi. ®

Timestamp:

Di più da Il registro