Le aziende si affidano a molteplici metodi per proteggere gli strumenti di intelligenza artificiale generativa

Le aziende si affidano a molteplici metodi per proteggere gli strumenti di intelligenza artificiale generativa

Le aziende si affidano a molteplici metodi per proteggere gli strumenti di intelligenza artificiale generativa PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Man mano che sempre più organizzazioni adottano tecnologie di intelligenza artificiale generativa, per creare presentazioni, completare domande di sovvenzione e scrivere codice standard — i team di sicurezza si stanno rendendo conto della necessità di affrontare una nuova domanda: come si proteggono gli strumenti di intelligenza artificiale?

Un terzo degli intervistati in un recente sondaggio di Gartner ha riferito entrambe le cose utilizzando o implementando strumenti di sicurezza delle applicazioni basati sull'intelligenza artificiale per affrontare i rischi posti dall’uso dell’intelligenza artificiale generativa nella loro organizzazione.

Le tecnologie di miglioramento della privacy (PET) hanno mostrato il maggiore utilizzo attuale, presso il 7% degli intervistati, con un solido 19% di aziende che le implementano; questa categoria include modi per proteggere i dati personali, come ad esempio crittografia omomorfica, Dati sintetici generati dall'intelligenza artificiale, calcolo sicuro multipartitico, apprendimento federatoe privacy differenziale. Tuttavia, un buon 17% non ha intenzione di introdurre la PET nel proprio ambiente.

Solo il 19% utilizza o implementa strumenti per la spiegabilità dei modelli, ma c’è un interesse significativo (56%) tra gli intervistati nell’esplorare e comprendere questi strumenti per affrontare il rischio dell’IA generativa. Secondo Gartner, la spiegabilità, il monitoraggio dei modelli e gli strumenti di sicurezza delle applicazioni IA possono essere utilizzati su modelli open source o proprietari per ottenere l'affidabilità e l'affidabilità di cui gli utenti aziendali hanno bisogno.

I rischi che preoccupano maggiormente gli intervistati includono risultati errati o distorti (58%) e vulnerabilità o segreti trapelati nel codice generato dall’intelligenza artificiale (57%). Significativamente, il 43% ha citato potenziali problemi di copyright o di licenza derivanti dai contenuti generati dall’intelligenza artificiale come i principali rischi per la propria organizzazione.

“Non c’è ancora trasparenza sui modelli di dati su cui si sta formando, quindi il rischio associato a bias e privacy è molto difficile da comprendere e stimare”, ha scritto un dirigente di alto livello in risposta al sondaggio di Gartner.

Nel mese di giugno, l'Istituto Nazionale di Standard e Tecnologia (NIST) ha lanciato un gruppo di lavoro pubblico per aiutare a rispondere a questa domanda, sulla base del suo quadro di gestione del rischio AI di gennaio. Come mostrano i dati Gartner, le aziende non aspettano per le direttive NIST.

Timestamp:

Di più da Lettura oscura