Adattare la sicurezza per proteggere i sistemi AI/ML

Adattare la sicurezza per proteggere i sistemi AI/ML

Adattare la sicurezza per proteggere i sistemi AI/ML PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

L’intelligenza artificiale (AI) non è solo l’ultima parola d’ordine nel mondo degli affari; sta rapidamente rimodellando i settori e ridefinendo i processi aziendali. Tuttavia, mentre le aziende si affrettano a integrare l’intelligenza artificiale e l’apprendimento automatico (ML) in ogni aspetto delle loro operazioni, stanno anche introducendo soluzioni innovative nuove sfide in materia di sicurezza e rischio. Concentrandosi su pratiche di sviluppo agili per ottenere un vantaggio competitivo, la sicurezza passa in secondo piano. Questo è stato il caso agli albori del World Wide Web e delle applicazioni mobili, e lo stiamo vedendo di nuovo nello sprint verso l’intelligenza artificiale.

Il modo in cui i sistemi AI e ML vengono costruiti, addestrati e gestiti è significativamente diverso dalla pipeline di sviluppo di sistemi IT, siti Web o app tradizionali. Sebbene alcuni degli stessi rischi che si applicano alla sicurezza IT tradizionale continuino a essere rilevanti anche nell’AI/ML, esistono numerose differenze significative e impegnative. A differenza di un'applicazione Web che si basa su un database, le applicazioni AI sono alimentate da modelli ML. Il processo di creazione di un modello prevede la raccolta, la pulizia e il perfezionamento dei dati; addestrare modelli ML sui dati; quindi eseguendo tali modelli su larga scala per fare inferenze e ripetere in base a ciò che apprendono.

Esistono quattro aree principali in cui il software tradizionale e lo sviluppo AI/ML divergono. Si tratta, rispettivamente, di stati modificati rispetto a stati dinamici, regole e termini rispetto a uso e input, ambienti proxy rispetto a sistemi live e controllo della versione rispetto a cambiamenti di provenienza.

Strumenti AI/ML open source, come MLflow ed raggio, forniscono strutture utili per la costruzione di modelli. Ma molti di questi strumenti e framework software open source (OSS) soffrono di vulnerabilità pronte all’uso che potrebbero portare a gravi sfruttamenti e danni. Singolarmente, le stesse librerie AI/ML creano una superficie di attacco molto più ampia, poiché contengono enormi quantità di dati e modelli che sono sicuri tanto quanto lo strumento AI/ML in cui sono salvati. Se questi strumenti vengono compromessi, gli aggressori possono accedere a più informazioni riservate nei database, modificare modelli e installare malware.

Sicurezza fin dalla progettazione per AI/ML

La sicurezza IT tradizionale non dispone di numerose funzionalità chiave per la protezione dei sistemi AI/ML. Il primo è la capacità di scansionare gli strumenti utilizzati dai data scientist per sviluppare gli elementi costitutivi dei sistemi AI/ML, come Taccuini Jupyter ed altri strumenti nella catena di fornitura AI/ML, per le vulnerabilità della sicurezza.

Sebbene la protezione dei dati sia una componente centrale della sicurezza IT, nell’AI/ML assume ulteriore importanza, poiché i dati in tempo reale vengono costantemente utilizzati per addestrare un modello. Ciò lascia le porte aperte a un utente malintenzionato per manipolare i dati AI/ML e può provocare la corruzione dei modelli e l'impossibilità di eseguire le funzioni previste.

Negli ambienti AI/ML, la protezione dei dati richiede la creazione di un record immutabile che colleghi i dati al modello. Pertanto, se i dati vengono modificati o alterati in qualsiasi modo, un utente che desidera riqualificare il modello vedrebbe che i valori di hashing (utilizzati per garantire l’integrità dei dati durante la trasmissione) non corrispondono. Questa traccia di controllo crea un record per tracciare quando il file di dati è stato modificato e dove sono archiviati i dati, per determinare se si è verificata una violazione.

Inoltre, è necessaria la scansione dei modelli AI/ML per rilevare minacce alla sicurezza come l’iniezione di comandi. Questo perché un modello è una risorsa che vive nella memoria, ma quando viene salvato su disco (per la distribuzione ai colleghi), nel formato può essere inserito del codice. Pertanto, anche se il modello continuerà a funzionare esattamente come prima, eseguirà codice arbitrario.

Date queste sfide uniche, ecco alcune utili best practice da considerare:

  • Trova le dipendenze per le vulnerabilità: La visibilità contestualizzata e potenti strumenti di query possono generare una visione ad ampio raggio di tutti i sistemi ML in tempo reale. Dovrebbe coprire tutti i fornitori, i fornitori di servizi cloud e le risorse della catena di fornitura coinvolte nello sviluppo di AI/ML per fornire una visione di tutte le dipendenze e le minacce. Una distinta base ML dinamica (ML BOM) può elencare tutti i componenti e le dipendenze, fornendo all'organizzazione la provenienza completa di tutti i sistemi AI/ML nella rete.

  • Autorizzazioni cloud sicure: I contenitori cloud che perdono dati possono rappresentare un difetto fatale nella sicurezza dell’intelligenza artificiale, data la dipendenza del modello da tali dati per l’apprendimento. La scansione delle autorizzazioni sul cloud è una priorità per prevenire la perdita di dati.

  • Dare priorità alla sicurezza dell'archiviazione dei dati: Implementa controlli, policy e controlli di sicurezza integrati per segnalare e avvisare automaticamente sulle violazioni delle policy al fine di rafforzare la sicurezza del modello.

  • Strumenti di sviluppo della scansione: Proprio come le operazioni di sviluppo si sono evolute in operazioni di sicurezza dello sviluppo, lo sviluppo AI/ML deve integrare la sicurezza nel processo di sviluppo, analizzando ambienti e strumenti di sviluppo come ML Flow e le relative dipendenze per eventuali vulnerabilità, insieme a tutti i modelli AI/ML e input di dati.

  • Controllare regolarmente: Gli strumenti automatizzati possono fornire i registri immutabili necessari che fungono da versioni con timestamp dell'ambiente AI/ML. Ciò supporterà l'analisi forense in caso di violazione, mostrando chi potrebbe aver violato la policy, dove e quando. Inoltre, gli audit possono aiutare ad aggiornare le protezioni per affrontare il panorama delle minacce.

Per sfruttare il potenziale dell’intelligenza artificiale affrontando al tempo stesso i rischi intrinseci per la sicurezza, le organizzazioni dovrebbero prendere in considerazione l’implementazione delle migliori pratiche sopra elencate e iniziare a implementare MLSecOps.

Timestamp:

Di più da Lettura oscura